JP3939466B2 - Image processing apparatus, method, and recording medium - Google Patents

Image processing apparatus, method, and recording medium Download PDF

Info

Publication number
JP3939466B2
JP3939466B2 JP20622499A JP20622499A JP3939466B2 JP 3939466 B2 JP3939466 B2 JP 3939466B2 JP 20622499 A JP20622499 A JP 20622499A JP 20622499 A JP20622499 A JP 20622499A JP 3939466 B2 JP3939466 B2 JP 3939466B2
Authority
JP
Japan
Prior art keywords
light
image
visible
image information
image recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20622499A
Other languages
Japanese (ja)
Other versions
JP2001036749A (en
Inventor
博司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP20622499A priority Critical patent/JP3939466B2/en
Publication of JP2001036749A publication Critical patent/JP2001036749A/en
Application granted granted Critical
Publication of JP3939466B2 publication Critical patent/JP3939466B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置、方法及び記録媒体に係り、特に、画像記録材料に可視光を照射することで得られた可視画像情報、及び非可視光を照射することで得られた非可視画像情報を用いて所定の画像処理を行う画像処理装置、該画像処理装置に適用可能な画像処理方法、及びコンピュータを画像処理装置として機能させるためのプログラムが記録された記録媒体に関する。
【0002】
【従来の技術】
写真フィルムは、取扱い方によっては乳剤面やバック面(乳剤面の裏面)に傷が付くことがあるが、写真フィルムの画像記録領域内に相当する箇所に傷が付いていた場合、該写真フィルムに記録されている画像を出力(印画紙等の画像記録材料に記録、或いはディスプレイ等の表示手段に表示)したとすると、傷の程度にもよるが、写真フィルムに付いた傷が、低濃度の筋や白い筋等の欠陥部として出力画像上で明瞭に視認されることが多い。また、写真フィルムの表面に塵埃等の異物が付着していた場合にも、該異物が欠陥部として明瞭に視認される。
【0003】
写真フィルムに光を照射し写真フィルムを透過した光を印画紙に照射することで印画紙に画像を露光記録する面露光タイプの写真焼付装置では、写真フィルムの傷付き対策として、光源と写真フィルムとの間に拡散板を配置し、拡散板によって散乱された光を写真フィルムに照射している。しかし、上記技術では出力画像(印画紙に露光記録した画像)中の欠陥部を消去することは困難であり、欠陥が若干軽減される(目立たなくなる)に過ぎない。
【0004】
また、写真フィルムに記録された画像をCCD等の読取センサによって読み取る構成の画像読取装置に適用可能な技術として、特開平11−75039号公報には、可視光域3波長と、非可視光域(例えば赤外域や紫外域)1波長を含む少なくとも4波長以上の波長域で写真フィルムを各々読み取り、非可視光域での読み取りによって得られた情報に基づいて、可視光域での読み取りによって得られた画像情報を補正する技術が開示されている。
【0005】
可視域の光(以下、可視光という)は、写真フィルムに記録されている画像濃度に応じて透過光量が変化すると共に、写真フィルムに傷や異物が付いている箇所でも傷や異物によって光が一部屈折されたり反射されることで透過光量が変化する。一方、非可視域の光(以下、非可視光という)は、写真フィルムに傷や異物が付いている箇所では透過光量が変化するものの、写真フィルムに記録されている画像濃度の影響は受けない。
【0006】
従って、前記公報に記載の技術によれば、非可視光の透過光量の変化から写真フィルムに付いている傷や異物を検出し、写真フィルムに付いている傷や異物に起因する可視光の透過光量の変動を補正すること、すなわち写真フィルムに付いている傷や異物に起因する画像(可視光の透過光量を検出することで得られた画像情報が表す画像)の欠陥部を修正することが可能となる。
【0007】
【発明が解決しようとする課題】
しかしながら、可視光の透過光量を検出して可視画像情報を取得すると共に、非可視光の透過光量を検出して非可視画像情報を取得し、取得した可視画像情報及び非可視画像情報を欠陥部の検出・修正に用いる場合、種々の光学特性に起因して可視画像情報と非可視画像情報の相違が生ずるという問題がある。
【0008】
例えば、写真フィルムのフィルムベースの屈折率は光の波長が長くなるに従って小さくなることが一般的である。このため、非可視光として赤外域側の波長域の光を用いる場合、写真フィルムに付いた傷の検出精度向上の一手段として、非可視光の波長域(光学特性の1つ)を短波長側に若干シフトさせることが考えられる。しかし、これに伴い非可視光の波長域の一部が可視域に入ることで、写真フィルムの乳剤層のシアン色素成分による吸収が発生し、非可視光として写真フィルムに照射した光の透過光量が、写真フィルムに記録されている画像のR濃度によって若干変化することになる。
【0009】
また、写真フィルムを透過する光は、傷や異物等が付いておらずかつ画像が記録されていない部分(所謂素抜け部分)を透過する場合であっても、フィルムベースにおける屈折によって透過光量が減衰するが、フィルムベースにおける光の屈折率(透過光量の減衰度)は透過光の波長によって異なっており(減衰度の波長依存性:これも光学特性の1つ)、透過光の波長が長くなるに従って透過光の減衰度が小さくなる特性を示すことが一般的である。このため、写真フィルムのフィルムベースにおける屈折による透過光の減衰度が可視光と非可視光とで相違することになり、これに伴って写真フィルムに照射した可視光の透過光量の変動量と、写真フィルムに照射した非可視光の透過光量の変動等が相違することになる。
【0013】
そして、上述した非可視光の波長域をシフトさせることに起因する透過光量の変化や、フィルムベースによる透過光の減衰度の波長依存性に起因する透過光量の変化は、可視画像情報及び非可視画像情報を用いて欠陥部を検出して欠陥部の修正を行った場合に、欠陥部に対する修正精度の低下に繋がる、という問題があった。
【0014】
本発明は上記事実を考慮して成されたもので、欠陥部の修正精度を向上させることが可能な画像処理装置、方法及び記録媒体を得ることが目的である。
【0015】
【課題を解決するための手段】
上記目的を達成するために請求項1記載の発明に係る画像処理装置は、画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として前記画像記録領域に照射し前記画像記録領域を透過又は反射した前記非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段と、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正する補正手段と、を含んで構成されている。
【0016】
請求項1記載の発明では、画像記録材料の画像記録領域に可視光を照射し画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として画像記録領域に照射し画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報が取得手段によって取得される。なお、第1検出手段及び第2検出手段は本発明に係る画像処理装置に含まれていてもよいし、別の装置(画像読取装置等)に含まれていてもよい。第1検出手段及び第2検出手段が別の装置に含まれている場合、取得手段による可視画像情報及び非可視画像情報の取得は、前記別の装置から各画像情報を受信することで実現できる。
そして、請求項1の発明に係る補正手段は、可視画像情報及び非可視画像情報の少なくとも一方に対し、光学特性に起因する各画像情報(可視画像情報と非可視画像情報)の差異として、可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正する。この補正は、例えば非可視光の波長域に関連する光学特性である非可視光の分光光量分布(又は非可視光に含まれる可視域の波長の光の割合)、或いは非可視光の波長域が可視域を一部含んでいることに起因する第2の検出手段による非可視光の検出光量の変化を予め測定しておき、非可視光の検出光量の補正に用いることで実現できる。
これにより、非可視光の波長域が可視域を一部含んでいることに起因する非可視光の検出光量の変化が補正された可視画像情報及び非可視画像情報を得ることができる。そして、可視画像情報が表す画像の欠陥部の検出及び検出した欠陥部の修正に際し、請求項7にも記載したように、補正手段による補正を経た可視画像情報及び非可視画像情報を用いることで、非可視光の波長域が可視域を一部含んでいることに起因する非可視光の検出光量の変化によって、画像の欠陥部の検出に際して欠陥部の範囲が誤検出されたり、欠陥部の修正に際して修正強度が不適正に設定されることで欠陥部の修正が不適正になることを防止することができ、欠陥部の修正精度を向上させることができる。
【0017】
請求項2記載の発明に係る画像処理装置は、画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び前記画像記録領域に非可視光を照射し前記画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段と、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、前記各検出手段による検出光量の差異を補正する補正手段と、を含んで構成されている。
【0018】
請求項2記載の発明では、画像記録材料の画像記録領域に可視光を照射し画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び画像記録領域に非可視光を照射し画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報が取得手段によって取得される。そして補正手段は、可視画像情報及び非可視画像情報の少なくとも一方に対し、光学特性に起因する各画像情報の差異として、画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、各検出手段による検出光量の差異を補正する。この補正は、画像記録材料に関連する光学特性として、透過又は反射光の画像記録材料による減衰度の波長依存性、或いは該減衰度の波長依存性に起因する各検出手段による検出光量の差異を予め測定しておき、検出光量の差異の補正に用いることで実現できる。
これにより、透過又は反射光の画像記録材料による減衰度の波長依存性に起因する検出光量の差異が補正された可視画像情報及び非可視画像情報を得ることができる。そして、可視画像情報が表す画像の欠陥部の検出及び検出した欠陥部の修正に際し、請求項7にも記載したように、補正手段による補正を経た可視画像情報及び非可視画像情報を用いることで、透過又は反射光の画像記録材料による減衰度の波長依存性に起因する検出光量の差異によって、画像の欠陥部の検出に際して欠陥部の範囲が誤検出されたり、欠陥部の修正に際して修正強度が不適正に設定されることで欠陥部の修正が不適正になることを防止することができ、欠陥部の修正精度を向上させることができる。
【0019】
また、画像記録材料にカラー画像が記録されている等の場合、画像記録領域を透過又は反射した可視光を可視域内の複数の波長域(好ましくは互いに異なる3以上の波長域)毎に各々検出することで、可視画像情報として、前記複数の波長域毎の透過又は反射光量(或いは透過又は反射濃度)を表す情報を得ることが一般的である。上記の可視画像情報は、例えば前記複数の波長域の光を画像記録領域に順次照射し、画像記録領域を透過又は反射した光を第1検出手段が順次検出するか、或いは前記複数の波長域の光を含む可視光を画像記録領域に照射し、画像記録領域を透過又は反射した可視光を第1の検出手段が前記複数の波長域の光に分解して検出することで得ることができる。
【0020】
しかし、上記のようにして得られる複数の波長域毎の可視画像情報相互にも、レンズやセンサ等の光学系に関連する光学特性や画像記録材料に関連する光学特性に起因する相違がある。このため取得手段が、可視画像情報として、画像記録領域を透過又は反射した可視光を第1検出手段が複数の波長域毎に各々検出することで得られた複数の波長域毎の可視画像情報を各々取得する場合、請求項に記載したように補正手段は、複数の波長域毎の可視画像情報及び非可視画像情報に対し、光学特性に起因する前記各画像情報相互の差異を補正することが好ましい。これにより、欠陥部の修正精度を更に向上させることが可能となる。
【0021】
なお、第1検出手段及び第2の検出手段が、画像記録材料の画像記録領域を透過又は反射しかつ結像レンズによって結像された可視光又は非可視光を検出する構成である場合、請求項に記載したように、補正手段は、各画像情報(すなわち、可視画像情報と非可視画像情報、又は複数の波長域毎の可視画像情報と非可視画像情報:以下同様)の差異として、結像レンズの倍率色収差又は歪曲収差に起因する画素位置のずれ補正することが好ましい。
【0022】
この補正は、例えば結像レンズに関連する光学特性である倍率色収差又は歪曲収差、或いは倍率色収差又は歪曲収差に起因する可視画像情報と非可視画像情報の画素位置のずれを予め測定しておき、画素位置のずれの補正に用いることで実現できる。これにより、例えば結像レンズとして、非可視域まで倍率色収差や歪曲収差が抑制された高価な結像レンズを用いることなく、結像レンズの倍率色収差又は歪曲収差に起因する画素位置のずれを解消することができる。
【0023】
従って、請求項の発明によれば、結像レンズの倍率色収差又は歪曲収差に起因する各画像情報の画素位置のずれ(各画像情報が表す画像の各画素の、実際の画像上での位置のずれ)により、画像の欠陥部の検出に際して欠陥部の範囲が誤検出されたり、欠陥部の修正に際して実際の欠陥部とずれた範囲が誤修正されることを防止することができる。
【0024】
また、第1検出手段が第1の光電変換素子によって可視光を検出すると共に、第2の検出手段が第1の光電変換素子と異なる第2の光電変換素子によって非可視光を検出する構成、すなわち第1検出手段と第2検出手段が異なる光電変換素子によって可視光又は非可視光を検出する構成である場合、請求項に記載したように、補正手段は、各画像情報の差異として、第1の光電変換素子と第2の光電変換素子の配置位置の相違に起因する画素位置のずれ補正することが好ましい。
【0025】
この補正は、例えばセンサに関連する光学特性である第1の光電変換素子と第2の光電変換素子の配置位置の相違、或いは該配置位置の相違に起因する各画像情報の画素位置のずれを予め測定しておき、画素位置のずれの補正に用いることで実現できる。これにより、第1の光電変換素子と第2の光電変換素子の配置位置の相違に起因する画素位置のずれを解消することができる。
【0026】
従って、請求項の発明によれば、第1の光電変換素子と第2の光電変換素子の配置位置の相違に起因する画素位置のずれにより、画像の欠陥部の検出に際して欠陥部の範囲が誤検出されたり、欠陥部の修正に際して実際の欠陥部とずれた範囲が誤修正されることを防止することができる。なお、請求項の発明において、第1の光電変換素子と第2の変換素子は別体であってもよいし、一体化されていてもよい。
【0027】
また、第1検出手段及び第2の検出手段が、画像記録材料の画像記録領域を透過又は反射しかつ結像レンズによって結像された可視光又は非可視光を検出する構成である場合、請求項に記載したように、補正手段は、各画像情報の差異として、結像レンズの焦点距離の波長依存性に起因する、各画像情報が表す画像の鮮鋭度の差異補正することが好ましい。
【0028】
この補正は、例えば結像レンズに関連する光学特性である波長毎の焦点距離、或いは焦点距離の波長依存性に起因する、各画像情報が表す画像の鮮鋭度の差異を予め測定しておき、鮮鋭度の補正に用いることで実現できる。これにより、結像レンズの焦点距離の波長依存性に起因する鮮鋭度の差異を解消することができる。従って、請求項の発明によれば、結像レンズの波長依存性に起因する鮮鋭度の差異により、画像の欠陥部の検出に際して欠陥部の範囲が誤検出されたり、欠陥部の修正に際して修正強度が不適正に設定されることで、例えば画像中に不必要なエッジが生ずる等のように欠陥部の修正が不適正になることを防止することができる。
【0032】
請求項8記載の発明に係る画像処理方法は、画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として前記画像記録領域に照射し前記画像記録領域を透過又は反射した前記非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得し、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正するので、請求項1の発明と同様に、欠陥部の修正精度を向上させることが可能となる。
【0033】
請求項記載の発明に係る画像処理方法は、画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び前記画像記録領域に非可視光を照射し前記画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得し、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、前記各検出手段による検出光量の差異を補正するので、請求項の発明と同様に、欠陥部の修正精度を向上させることが可能となる。
【0034】
請求項10記載の発明に係る記録媒体は、コンピュータを、画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として前記画像記録領域に照射し前記画像記録領域を透過又は反射した前記非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段、及び、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正する補正手段として機能させるためのプログラムが記録されている。
請求項10記載の発明に係る記録媒体には、コンピュータを、上記の取得手段及び補正手段として機能させるためのプログラムが記録されているので、コンピュータが請求項10の発明に係る記録媒体からプログラムを読み出して実行することにより、前記コンピュータが請求項1の発明に係る画像処理装置として機能することになり、請求項1の発明と同様に、欠陥部の修正精度を向上させることが可能となる。
【0035】
請求項11記載の発明に係る記録媒体は、コンピュータを、画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び前記画像記録領域に非可視光を照射し前記画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段、及び、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、前記各検出手段による検出光量の差異を補正する補正手段として機能させるためのプログラムが記録されている。
請求項11記載の発明に係る記録媒体には、コンピュータを、上記の取得手段及び補正手段として機能させるためのプログラムが記録されているので、コンピュータが請求項11の発明に係る記録媒体からプログラムを読み出して実行することにより、前記コンピュータが請求項2の発明に係る画像処理装置として機能することになり、請求項2の発明と同様に、欠陥部の修正精度を向上させることが可能となる。
【0036】
【発明の実施の形態】
以下、図面を参照し、本発明の実施形態の一例を詳細に説明する。なお、以下では一例として、写真フィルムに付いている傷や異物に起因する欠陥部を修正する場合を説明する。
【0037】
図1には、本実施形態に係る画像処理システム10が示されている。画像処理システム10は、フィルムスキャナ12、画像処理装置14及びプリンタ16が直列に接続されて構成されている。なお、フィルムスキャナ12及び画像処理装置14は本発明に係る画像処理装置に対応している。
【0038】
フィルムスキャナ12は、写真フィルム(例えばネガフィルムやリバーサルフィルム)等の写真感光材料(以下単に写真フィルムと称する)に記録されている画像(被写体を撮影後、現像処理されることで可視化されたネガ画像又はポジ画像)を読み取り、該読み取りによって得られた画像データを出力するものであり、図2にも示すように、ハロゲンランプ等から成り写真フィルム26に光を照射する光源20を備えている。なお、光源から射出される光は可視光域の波長の光及び赤外域の波長の光を各々含んでいる。
【0039】
光源20の光射出側には、写真フィルム26に照射する光の光量を調節するための絞り21、フィルタユニット23、写真フィルム26に照射する光を拡散光とする光拡散ボックス22が順に配置されている。フィルタユニット23は、入射光のうちRに相当する波長域の光(R光)のみ透過させるフィルタ23Cと、入射光のうちGに相当する波長域の光(G光)のみ透過させるフィルタ23Mと、入射光のうちBに相当する波長域の光(B光)のみ透過させるフィルタ23Yと、入射光のうち赤外域の光(IR光)を透過させるフィルタ23IRの4個のフィルタが、図2矢印A方向に沿って回転可能とされたターレット23Aに嵌め込まれて構成されている。
【0040】
写真フィルム26を挟んで光源20と反対側には、光軸Lに沿って、写真フィルム26を透過した光を結像させる結像レンズ28、エリアCCD30が順に配置されている。エリアCCD30は、各々可視光域及び赤外域に感度を有する多数のCCDセルがマトリクス状に配列されたモノクロのCCDであり、受光面が結像レンズ28の結像点位置に略一致するように配置されている。また、エリアCCD30と結像レンズ28との間にはシャッタ(図示省略)が設けられている。
【0041】
エリアCCD30はCCDドライバ31を介してスキャナ制御部33に接続されている。スキャナ制御部33はCPU、ROM(例えば記憶内容を書換え可能なROM)、RAM及び入出力ポートを備え、これらがバス等を介して互いに接続されて構成されている。スキャナ制御部33はフィルムスキャナ12の各部の動作を制御する。また、CCDドライバ31はエリアCCD30を駆動するための駆動信号を生成し、エリアCCD30の駆動を制御する。
【0042】
写真フィルム26はフィルムキャリア24(図1参照、図2では図示省略)によって搬送され、画像の画面中心が光軸Lに一致する位置(読取位置)に位置決めされる。また、スキャナ制御部33は画像が読取位置に位置決めされている状態で、フィルタ23IRを含む全てのフィルタ23が順に光軸L上に位置するようにフィルタユニット23のターレット23Aを回転駆動させると共に、所定の読取条件に対応するエリアCCD30の電荷蓄積時間をCCDドライバ31へ設定し、絞り21を前記所定の読取条件に対応する位置へ移動させる。
【0043】
これにより、写真フィルム26上の画像記録領域に各フィルタ23に対応する波長域(R又はG又はB又はIR)の光が順に照射され、写真フィルム26上の画像記録領域を透過した光はエリアCCD30によって検出され(詳しくは光電変換され)、透過光量を表す信号としてエリアCCD30から出力される。エリアCCD30から出力された信号は、A/D変換器32によって透過光量を表すデジタルデータに変換されて画像処理装置14に入力される。このように、フィルムスキャナ12は本発明に係る第1検出手段及び第2検出手段としての機能を兼ね備えている。
【0044】
なお、R、G、Bの各波長域の光の透過光量は、画像記録領域に記録されている画像のR,G,B濃度に応じて変化する(写真フィルム26に傷や異物が付いていた場合にはこれらによっても変化するが、IR光の透過光量は画像濃度の影響を受けず、傷や異物等のみによって変化する)。従って、R、G、Bの各波長域の透過光を光電変換することは画像を読み取ることに相当し、以下では、画像処理装置14に入力されるR、G、B、IRの各波長域のデータのうちIRを除くR、G、Bの各データを画像データと称する。なお、R,G,Bの画像データは本発明に係る可視画像情報(より詳しくは請求項に記載の複数の波長域毎の可視画像情報)に対応しており、IRデータは本発明に係る非可視画像情報に対応している。
【0045】
また、一般に写真フィルムのフィルムべースは、透過光の波長が長くなるに従って屈折率が小さくなる特性を有しており、IR光の波長が長波長側に偏倚するに従って、写真フィルムに付いている傷や異物に起因する欠陥部の検出精度は低下する。本実施形態では、IR光による欠陥部の検出精度を確保するために、フィルタ23IRとして、例として図3にも示すように、フィルタ23IRを透過して写真フィルムに照射されるIR光の波長域が可視域側(短波長側)に偏倚する分光特性を有するフィルタを用いており、IR光として写真フィルムに照射される光には可視域の波長の光が含まれている。
【0046】
一方、画像処理装置14のスキャナ補正部36は、入力された画像データ(及びIRデータ)に対し、暗補正、濃度変換、シェーディング補正等の各種の補正処理を順に行う。スキャナ補正部36の出力端はI/Oコントローラ38の入力端に接続されており、スキャナ補正部36で前記各処理が施された画像データはI/Oコントローラ38に入力される。I/Oコントローラ38の入力端は、イメージプロセッサ40のデータ出力端にも接続されており、イメージプロセッサ40から画像処理(詳細は後述)が行われた画像データが入力される。
【0047】
また、I/Oコントローラ38の入力端は制御部42にも接続されている。制御部42は拡張スロット(図示省略)を備えており、この拡張スロットには、デジタルスチルカメラに装填可能なPCカードやICカード(以下、これらをデジタルカメラカードと総称する)、CD−ROMやMO、CD−R等の情報記憶媒体に対してデータ(或いはプログラム)の読出し/書込みを行うドライバ(図示省略)や、他の情報処理機器と通信を行うための通信制御装置が接続される。拡張スロットを介して外部から入力された画像データはI/Oコントローラ38へ入力される。
【0048】
I/Oコントローラ38の出力端は、イメージプロセッサ40のデータ入力端及び制御部42に各々接続されており、更にI/F回路54を介してプリンタ16に接続されている。I/Oコントローラ38は、入力された画像データを、出力端に接続された前記各機器に選択的に出力する。
【0049】
本実施形態では、写真フィルム26に記録されている個々の画像に対し、フィルムスキャナ12において異なる解像度で2回の読み取りを行う。なお、本実施形態のように読取センサとしてエリアセンサ(エリアCCD30)を用いた態様において、読み取りの解像度の切り替え(各回の読み取りで異なる解像度の画像データを得ること)は、例えばプレスキャン時もファインスキャン時と同一の高解像度で読み取りを行い、得られた画像データに対して画素の間引き又は画素の統合等の後処理を行うか、或いはファインスキャン時にはエリアセンサによって読み取りを複数回行うと共に、各回の読み取り時にピエゾ素子等のアクチュエータにより画素間隔の整数分の1に相当する距離だけエリアセンサを移動させることで実現できる。
【0050】
1回目の比較的低解像度での読み取り(プレスキャン)では、画像の濃度が非常に低い場合にも、エリアCCD30で蓄積電荷の飽和が生じないように決定した読取条件(写真フィルム26に照射する光のR、G、Bの各波長域毎の光量、エリアCCD30の電荷蓄積時間)で各画像の読み取りが行われる。なお、本実施形態ではプレスキャン時にはIR読み取りは行なわない。このプレスキャンによって得られたデータ(プレスキャン画像データ)は、I/Oコントローラ38から制御部42へ入力される。
【0051】
制御部42は、CPU46、RAM48、ROM50(例えば記憶内容を書換え可能なROM)、入出力ポート52を備え、これらがバスを介して互いに接続されて構成されている。制御部42は、I/Oコントローラ38から入力されたプレスキャン画像データに基づいて画像の濃度等の画像特徴量を演算し、各画像に対し、フィルムスキャナ12が比較的高解像度での再度の読み取り(ファインスキャン)を行う際の読取条件を決定し、決定した読取条件をフィルムスキャナ12に出力する。
【0052】
また制御部42は、プレスキャン画像データに基づいて、画像中の主要画像領域(例えば人物の顔に相当する領域(顔領域))の抽出を含む画像特徴量の演算を行い、フィルムスキャナ12がファインスキャンを行うことによって得られる画像データ(ファインスキャン画像データ)に対する各種の画像処理の処理条件を演算により自動的に決定し(セットアップ演算)、決定した処理条件をイメージプロセッサ40へ出力する。
【0053】
なお、制御部42は、フィルムスキャナ12から入力されたIRデータに基づいて、画像データが表す画像中に、写真フィルム26に付いている傷や塵埃等の異物に起因する欠陥部が生じているか否かを探索する機能、イメージプロセッサ40が欠陥部修正処理を行うためのパラメータを設定する機能を有している。また、制御部42のバスにはディスプレイ43、キーボード44及びマウス(図示省略)が接続されている。
【0054】
制御部42は、演算した画像処理の処理条件に基づき、ファインスキャン画像データを対象としてイメージプロセッサ40で行われる画像処理と等価な画像処理をプレスキャン画像データに対して行ってシミュレーション画像データを生成する。そして、生成したシミュレーション画像データを、ディスプレイ43に画像を表示するための信号に変換し、該信号に基づいてディスプレイ43にシミュレーション画像を表示する。また、表示されたシミュレーション画像に対しオペレータによって画質等の検定が行われ、検定結果として処理条件の修正を指示する情報がキーボード44やマウスを介して入力されると、入力された情報に基づいて画像処理の処理条件の再演算等を行う。
【0055】
一方、フィルムスキャナ12で画像に対してファインスキャンが行われることによってI/Oコントローラ38に入力された画像データ(ファインスキャン画像データ)は、I/Oコントローラ38からイメージプロセッサ40へ入力される。
【0056】
イメージプロセッサ40は、階調変換や色変換を含む色・濃度補正処理、画素密度変換処理、画像の超低周波輝度成分の階調を圧縮するハイパートーン処理、粒状を抑制しながらシャープネスを強調するハイパーシャープネス処理等の各種の画像処理を行う画像処理回路を各々備えており、入力された画像データに対し、制御部42によって各画像毎に決定されて通知された処理条件に従って種々の画像処理を行う。また、イメージプロセッサ40は制御部42によって設定されたパラメータに従って欠陥部修正処理を行う機能を有している。
【0057】
イメージプロセッサ40で画像処理が行われた画像データを印画紙への画像の記録に用いる場合には、イメージプロセッサ40で画像処理が行われた画像データは、I/Oコントローラ38からI/F回路54を介し記録用画像データとしてプリンタ16へ出力される。また、画像処理後の画像データを画像ファイルとして外部へ出力する場合は、I/Oコントローラ38から制御部42へ画像データが出力される。これにより、制御部42では、外部への出力用としてI/Oコントローラ38から入力された画像データを、拡張スロットを介して画像ファイルとして外部(前記ドライバや通信制御装置等)に出力する。
【0058】
プリンタ16は、画像メモリ58、R,G,Bのレーザ光源60、該レーザ光源60の作動を制御するレーザドライバ62を備えている。画像処理装置14から入力された記録用画像データは画像メモリ58に一旦記憶された後に読み出され、レーザ光源60から射出されるR,G,Bのレーザ光の変調に用いられる。レーザ光源60から射出されたレーザ光は、ポリゴンミラー64、fθレンズ66を介して印画紙68上を走査され、印画紙68に画像が露光記録される。画像が露光記録された印画紙68は、プロセッサ部18へ送られて発色現像、漂白定着、水洗、乾燥の各処理が施される。これにより、印画紙68に露光記録された画像が可視化される。
【0059】
次に本実施形態の作用として、スキャナ12から画像処理装置14にファインスキャン画像データが入力されると制御部42で実行される欠陥部修正値決定処理について説明する。この欠陥部修正値決定処理は、請求項8,9に記載の画像処理方法が適用された処理であり、制御部42のCPU46により、欠陥部修正値決定プログラムが実行されることにより実現される。欠陥部修正値決定プログラムは、その他の処理をCPU46で実行させるためのプログラムと共に、当初は、情報記憶媒体72(図1参照)に記憶されている。なお、図1では情報記憶媒体72をフロッピーディスクとして示しているが、CD−ROMやメモリカード等で構成してもよい。
【0060】
制御部42に接続された情報読出装置(図示省略)に情報記憶媒体72が装填され、情報記憶媒体72から画像処理装置14へのプログラムの移入(インストール)が指示されると、情報読出装置によって情報記憶媒体72から欠陥部修正値決定プログラム等が読み出され、記憶内容を書換え可能なROM50に記憶される。そして、欠陥部修正値決定処理を実行すべきタイミングが到来すると、ROM50から欠陥部修正値決定プログラムが読み出され、該プログラムがCPU46によって実行される。これにより、画像処理装置14は請求項1,2に記載の画像処理装置として機能する。このように、欠陥部修正値決定プログラム等を記憶している情報記憶媒体72は請求項10,11に記載の記録媒体に対応している。
【0061】
以下、欠陥部修正値決定処理について、図4のフローチャートを参照して説明する。ステップ100では、制御部42に入力された単一の画像(処理対象の画像)のR,G,Bの画像データ及びIRデータをRAM48等に取り込む。ステップ100は本発明の取得手段に対応している。また、次のステップ102〜ステップ118は本発明の補正手段に対応している。
【0062】
すなわち、ステップ102では、フィルムスキャナ12の結像レンズ28の歪曲収差・倍率色収差を補正するための補正データをROM50から取り込む。本実施形態に係る歪曲収差補正データは、結像レンズ28の歪曲収差に起因する画像の幾何学的歪みを補正する歪曲収差補正に用いるデータであり、結像レンズ28の歪曲収差に起因する画像上の各位置での画素位置の変化方向及び変化量を測定した結果に基づいて設定されている。
【0063】
本実施形態では基準波長域としてGを採用し、歪曲収差補正データとして、結像レンズ28の歪曲収差に起因する画像上の各位置におけるGについての画素位置の変化量(歪曲収差量)の測定結果をx方向とy方向に分解し、画像上の各位置における歪曲収差量を、xP P 座標系(画像の中心位置(xP0,yP0)を原点(=(0,0))として画像上の任意の画素を座標値(xP ,yP )で表す座標系(図5(B)参照))を基準として、x方向の歪曲収差量Dx(xP ,yP )及びy方向の歪曲収差量Dy(xP ,yP )で表すデータを用いている。
【0064】
また、倍率色収差補正データは、結像レンズ28の倍率色収差に起因する画像の色ずれを補正する倍率色収差補正に用いるデータであり、結像レンズ28の倍率色収差に起因する画像上の各位置での基準波長域のデータが表す画像の画素位置に対する非基準波長域のデータが表す画像の画素位置の変化方向及び変化量を測定した結果に基づいて設定されている。
【0065】
本実施形態では、非基準波長域としてR,B及びIRを採用し、Rの倍率色収差補正データとして、結像レンズ28の倍率色収差に起因する画像上の各位置における、Gに対するRの画素位置の変化量(倍率色収差量)の測定結果をx方向とy方向に分解し、画像上の各位置におけるRの倍率色収差量を、xP P 座標系を基準として、Rのx方向の倍率色収差量ΔRx(xP ,yP )及びRのy方向の倍率色収差量ΔRy(xP ,yP )で表すデータを用いている。
【0066】
また、Bの倍率色収差補正データとして、結像レンズ28の倍率色収差に起因する画像上の各位置における、Gに対するBの画素位置の変化量(倍率色収差量)の測定結果をx方向とy方向に分解し、画像上の各位置におけるBの倍率色収差量を、xP P 座標系を基準として、Bのx方向の倍率色収差量ΔBx(xP ,yP )及びBのy方向の倍率色収差量ΔBy(xP ,yP )で表すデータを用いている。
【0067】
更に、IRの倍率色収差補正データとして、結像レンズ28の倍率色収差に起因する画像上の各位置における、Gに対するIRの画素位置の変化量(倍率色収差量)の測定結果をx方向とy方向に分解し、画像上の各位置におけるIRの倍率色収差量を、xP P 座標系を基準として、IRのx方向の倍率色収差量ΔIRx(xP ,yP )及びIRのy方向の倍率色収差量ΔIRy(xP ,yP )で表すデータを用いている。
【0068】
次のステップ104では、ROM50から取り込んだ歪曲収差補正データ及び倍率色収差補正データに基づき、R,G,B,IRの各データに対し、歪曲収差補正・倍率色収差補正をy方向及びx方向について各々行う。
【0069】
すなわち、まず画像の中心位置を基準として、画像データの各画素の座標値(x,y)をxP P 座標系(図5(B)参照)での座標値(xP ,yP )に変換(xP =x−xP0、yP =y−yP0:すなわち規格化)した後に、規格化後の座標値が(xP ,yP )の画素に対し、座標(xP ,yP )をキーにして、ステップ102で取り込んだ歪曲収差補正データの中から対応するy方向についての歪曲収差量Dy(xP ,yP )を検索し、座標(xP ,yP )の画素の各データR(xP ,yP )、G(xP ,yP )、B(xP ,yP )、IR(xP ,yP )の座標を次式に従って変換することを、全ての画素について行う。
R(xP ,yPR')←R(xP ,yP ) G(xP ,yPG)←G(xP ,yP
B(xP ,yPB')←B(xP ,yP )IR(xP ,yPIR')←IR(xP ,yP
但し、yPR’=yPG=yPB’=yPIR’=yP +Dy(xP ,yP
【0070】
また、規格化後の座標値が(xP ,yP )の画素(y方向についての歪曲収差補正後の座標値が(xP ,yPR')の画素)のRのデータに対し、座標(xP ,yP )をキーにして、ステップ102で取り込んだRの倍率色収差補正データの中から、対応するRのy方向についての倍率色収差量ΔRy(xP ,yP )を検索し、y方向についての歪曲収差補正後の座標値が(xP ,yPR')の画素のRのデータR(xP ,yPR')の座標を次式に従って変換することを、全ての画素について行う。

Figure 0003939466
【0071】
また、規格化後の座標値が(xP ,yP )の画素のBのデータに対し、座標(xP ,yP )をキーにして、ステップ102で取り込んだBの倍率色収差補正データの中から、対応するBのy方向についての倍率色収差量ΔBy(xP ,yP )を検索し、y方向についての歪曲収差補正後の座標値が(xP ,yPB')の画素のBのデータB(xP ,yPB')の座標を次式に従って変換することを、全ての画素について行う。
Figure 0003939466
【0072】
更に、規格化後の座標値が(xP ,yP )の画素のIRのデータに対し、座標(xP ,yP )をキーにして、ステップ102で取り込んだIRの倍率色収差補正データの中から、対応するIRのy方向についての倍率色収差量ΔIRy(xP ,yP )を検索し、y方向についての歪曲収差補正後の座標値が(xP ,yPIR')の画素のIRのデータIR(xP ,yPIR')の座標を次式に従って変換することを、全ての画素について行う。
Figure 0003939466
【0073】
上記により、y方向についての歪曲収差補正、及びy方向についてのR、B及びIRの倍率色収差補正が行われ、R,G,B,IRの各データが表す画像の各画素の位置は各々独立にy方向に各々移動されることになる。
【0074】
次に、画像の各画素のy方向についての本来の位置(以下、この位置を座標値(xP ,yP0)で表す)を求める。そして、座標値(xP ,yP0)の位置におけるRの値を、歪曲収差補正及び倍率色収差補正を経たデータR(xP ,yPR)のうち、y方向に沿って座標値(xP ,yP0)を挟んで隣り合っている2つの位置におけるRのデータに基づいて補間演算によって求める。また、座標値(xP ,yP0)の位置におけるGの値を、歪曲収差補正及び倍率色収差補正を経たデータG(xP ,yPG)のうち、y方向に沿って座標値(xP ,yP0)を挟んで隣り合っている2つの位置におけるGのデータに基づいて補間演算によって求め、座標値(xP ,yP0)の位置におけるBの値を、歪曲収差補正及び倍率色収差補正を経たデータB(xP ,yPB)のうち、y方向に沿って座標値(xP ,yP0)を挟んで隣り合っている2つの位置におけるBのデータに基づいて補間演算によって求め、座標値(xP ,yP0)の位置におけるIRの値を、歪曲収差補正及び倍率色収差補正を経たデータIR(xP ,yPIR)のうち、y方向に沿って座標値(xP ,yP0)を挟んで隣り合っている2つの位置におけるIRのデータに基づいて補間演算によって求める。上記処理を画像の全ての画素について行うことにより、y方向についての歪曲収差補正、倍率色収差補正が完了する。
【0075】
続いて、歪曲収差補正及び倍率色収差補正をx方向について行う。すなわち、画像の中心位置を基準として、画像データの座標値が(xP ,yP0)の画素に対し、座標(xP ,yP0)をキーにして、歪曲収差補正データの中から対応するx方向についての歪曲収差量Dx(xP ,yP0)を検索し(なお、座標(xP ,yP0)における歪曲収差量がデータとして記憶されていない場合には、前記座標の周囲の位置における歪曲収差量に基づいて、座標(xP ,yP0)における歪曲収差量を補間演算によって求める)、座標(xP ,yP0)の画素のデータR(xP ,yP0)、G(xP ,yP0)、B(xP ,yP0)、IR(xP ,yP0)の座標を次式に従って変換することを、全ての画素について行う。
R(xPR',yP0)←R(xP ,yP0) G(xPG,yP0)←G(xP ,yP0
B(xPB',yP0)←B(xP ,yP0)IR(xPIR',yP0)←IR(xP ,yP0
但し、xPR’=xPG=xPB’=xPIR’=xP +Dx(xP ,yP0
【0076】
また、x方向についての歪曲収差補正前の座標値が(xP ,yP0)の画素(x方向についての歪曲収差補正後の座標値が(xPR',yP0)の画素)のRのデータに対し、座標(xP ,yP0)をキーにして、Rの倍率色収差補正データの中から対応するRのx方向についての倍率色収差量ΔRx(xP ,yP0)を検索し(なお、座標(xP ,yP0)における倍率色収差量がデータとして記憶されていない場合には、前述のように補間演算によって倍率色収差量を演算する)、x方向についての歪曲収差補正後の座標値が(xPR',yP0)の画素のRのデータR(xPR',yP0)の座標を次式に従って変換することを、全ての画素について行う。
Figure 0003939466
【0077】
また、x方向についての歪曲収差補正前の座標値が(xP ,yP0)の画素のBのデータに対し、座標(xP ,yP0)をキーにして、Bの倍率色収差補正データの中から対応するBのx方向についての倍率色収差量ΔBx(xP ,yP0)を検索し、x方向についての歪曲収差補正後の座標値が(xPB',yP0)の画素のBのデータB(xPB',yP0)の座標を次式に従って変換することを、全ての画素について行う。
Figure 0003939466
【0078】
更に、x方向についての歪曲収差補正前の座標値が(xP ,yP0)の画素のIRのデータに対し、座標(xP ,yP0)をキーにして、IRの倍率色収差補正データの中から対応するIRのx方向についての倍率色収差量ΔIRx(xP ,yP0)を検索し、x方向についての歪曲収差補正後の座標値が(xPIR',yP0)の画素のIRのデータIR(xPIR',yP0)の座標を次式に従って変換することを、全ての画素について行う。
Figure 0003939466
【0079】
上記により、x方向についての歪曲収差補正、及びx方向についてのR、B及びIRの倍率色収差補正が行われ、R,G,B,IRの各データが表す画像の各画素の位置は各々独立にx方向に各々移動される。
【0080】
次に、画像の各画素のx方向についての本来の位置(以下、この位置を座標値(xP0,yP0)で表す)を求める。そして、座標値(xP0,yP0)の位置におけるRの値を、歪曲収差補正及び倍率色収差補正を経たデータR(xPR,yP0)のうち、x方向に沿って座標値(xP0,yP0)を挟んで隣り合っている2つの位置におけるRのデータに基づいて補間演算によって求める。また、座標値(xP0,yP0)の位置におけるGの値を、歪曲収差補正及び倍率色収差補正を経たデータG(xPG,yP0)のうち、x方向に沿って座標値(xP0,yP0)を挟んで隣り合っている2つの位置におけるGのデータに基づいて補間演算によって求め、座標値(xP0,yP0)の位置におけるBの値を、歪曲収差補正及び倍率色収差補正を経たデータB(xPB,yP0)のうち、x方向に沿って座標値(xP0,yP0)を挟んで隣り合っている2つの位置におけるBのデータに基づいて補間演算によって求め、座標値(xP0,yP0)の位置におけるIRの値を、歪曲収差補正及び倍率色収差補正を経たデータIR(xPIR,yP0)のうち、x方向に沿って座標値(xP0,yP0)を挟んで隣り合っている2つの位置におけるIRのデータに基づいて補間演算によって求める。
【0081】
上記処理を画像の全ての画素について行うことにより、x方向についての歪曲収差補正及び倍率色収差補正が行われ、歪曲収差補正処理及び倍率色収差補正処理が完了する。上記の歪曲収差補正及び倍率色収差補正により、結像レンズ28の歪曲収差及び倍率色収差に起因するR,G,B,IRの各データが表す画像の画素ずれが補正される。なお、ステップ102、104は請求項に記載の補正手段に対応している。
【0082】
次のステップ106では、IR光として写真フィルムに照射する光に含まれている可視域の光による、IR光の透過光量の検出値の変化を補正する(以下、波長分離補正という)ための補正パラメータを取り込む。そしてステップ108では、取り込んだ補正パラメータに基づき、IRデータに対して波長分離補正を行う。この波長分離補正は、歪曲収差補正及び倍率色収差補正を経たR,G,B,IRのデータに基づき各画素毎に次式の演算を行い、全ての画素のIRデータを次式から求まるデータIR’に置き換えることで実現できる。
【0083】
【数1】
Figure 0003939466
【0084】
なお上式において、B,G,R,IRは演算対象の画素のB,G,R,IRの値、IR’は波長分離補正後のIRの値を表す。また、a0,a1,a2,a3は波長分離補正を行うための補正パラメータであり、各々演算対象の画素のB,G,R,IRの値に対する係数である。本実施形態では、フィルタ23IRの特性に基づいて、IR光として写真フィルムに照射される光のうち可視光の割合及びその波長域を求め、演算結果に基づいて上記補正パラメータの各係数の値を設定し、ROM50に記憶している。
【0085】
図3には、IR光として写真フィルムに照射される光の分光特性の一例を示すが(図3に「IR」と表記して示す特性)、この特性では、前記IR光として照射される光のうち可視光の割合は数%程度であり、その波長域はRに相当する波長域にのみ分布している(この場合、IR光として照射される光に含まれる可視光の透過光量は画像のR濃度に応じて変化する)ので、一例としてa0=0,a1=0,a2=−0.03,a3=1等の値を設定することができる。
【0086】
上記の波長分離補正を行うことにより、IR光として照射される光に可視光が含まれていることに起因するIR光の透過光量の検出値の変化が補正される。なお、ステップ106、108は請求項に記載の補正手段に対応している。
【0087】
ところで、写真フィルムを透過する光は、傷や異物等が付いておらずかつ画像が記録されていない部分(所謂素抜け部分)を透過する場合であっても、フィルムベースにおける屈折によって透過光量が減衰するが、フィルムベースにおける光の屈折率(透過光量の減衰度)は透過光の波長によって異なっており(減衰度の波長依存性)、例として図6に示すように、透過光の波長が長くなるに従って透過光の減衰度が小さくなる特性を示すことが一般的である。そして、この波長−減衰度特性はフィルムベースの材質(写真フィルムの種類)によって異なっている。
【0088】
このため、本実施形態では写真フィルムの波長−減衰度特性を写真フィルムの種類毎に各々測定し、波長−減衰度特性の測定結果に基づいて、写真フィルムによる減衰度の波長依存性に起因するR,G,B,IRの透過光量の変動を補正するための減衰度補正量を写真フィルムの種類毎に各々決定し、決定した減衰度補正量を写真フィルムの種類を表す情報と対応させて減衰度補正データとしてROM50に予め記憶している。
【0089】
ステップ110では、フィルムスキャナ12による写真フィルム読取時に検出された、読取対象の写真フィルムの種類を表す情報を取り込む。なお、写真フィルムの種類は、写真フィルムの製造時にバーコード等の形態で写真フィルムの側縁に記録されるDXコードを読み取ることで検出することができる。次のステップ112では、ステップ110で取り込んだ情報に基づき、読取対象の写真フィルムの種類に対応する減衰度補正データをROM50から取り込む。そしてステップ114では、ステップ112で取り込んだ減衰度補正データに従い、R,G,B,IRの各データに対し、写真フィルムによる減衰度の波長依存性に起因するR,G,B,IRの透過光量の変動を画素毎に補正する。
【0090】
これにより、R,G,B,IRの各データの値は、写真フィルムのフィルムベースにおける屈折による透過光の減衰度が波長に拘わらず一定(例えば減衰度=0)であると仮定したときのR,G,B,IRの透過光量に対応する値に補正されることになる。上記のステップ110乃至114は請求項に記載の補正手段に対応している。
【0091】
ところで、レンズの焦点距離はレンズを透過する光の波長に応じて変化(焦点距離の波長依存性)するので、単一の画像に対してR,G,B,IRの各波長域についての読み取りを各々行う場合、結像レンズ28による画像の結像位置は、エリアCCD30の受光面位置に対して透過光の波長域毎に変化し、各波長域についての読み取り(各波長域毎の透過光量の検出)によって得られるR,G,B,IRの各データが表す画像の鮮鋭度も各々相違することになる。
【0092】
本実施形態のように各波長域についての読み取りを順次行う場合、上記の鮮鋭度の相違は、例えば各波長域についての読み取りを行う前に、読み取りを行う波長域についてのフィルムスキャナ12の結像レンズ28による画像の結像位置をエリアCCD30の受光面位置に自動的に一致させるオートフォーカス(AF)処理を毎回行うことで解決できるが、代わりに画像の読み取りに時間がかかるという新たな問題が生ずる。
【0093】
本実施形態では、単一の画像に対する読み取りを開始するときに、所定の基準波長域(例えばG)についてのみAF処理を行い、各波長域についてAF処理を各々行うことに代えて、次のステップ116、118でR,G,B,IRの各データが表す画像の鮮鋭度が一致するように各データを補正する鮮鋭度補正処理を行う。
【0094】
すなわち、ステップ116では、結像レンズ28の焦点距離の波長依存性に起因するR,G,B,IRの各データの鮮鋭度のばらつきを補正するための鮮鋭度補正値をROM50から取り込む。この鮮鋭度補正値は、各データが表す画像に対する高周波成分の強調度を表しており(鮮鋭度の低下は空間周波数の分布において高周波成分の減衰として現れる)、各データが表す画像における高周波成分の減衰度合いが高くなるに従って強調度が高くなるように設定されてROM50に予め記憶されている。
【0095】
詳しくは、R,G,B,IRの各波長域毎の結像レンズ28の焦点距離から、基準波長域の光についての結像レンズ28の焦点距離と非基準波長域(例えばR,B,IR)の光についての結像レンズ28の焦点距離との偏差を各非基準波長域について各々求め、この焦点距離の偏差に基づいて高周波成分の減衰度合いを推定し、各非基準波長域毎に、前記高周波成分の減衰度合いに応じて鮮鋭度補正値を各々設定している。
【0096】
次のステップ118では、ステップ116で取り込んだ鮮鋭度補正値に基づき、非基準波長域のデータに対して鮮鋭度補正を各々実行する。この鮮鋭度補正は、例えば次の(1)式の演算を行うことで実現できる。
QL=Q+β(Q−QUS) …(1)
但し、Qは補正対象の画像データ(非基準波長域(例えばR又はB又はIRのデータ)、QLは鮮鋭度補正後の画像データ、QUSは非鮮鋭マスク画像データ、βは高周波成分の強調度(鮮鋭度補正値)である。
【0097】
非鮮鋭マスク画像データQUSは、補正対象の画像データQに対し、例えば画像の角部に存在するn×n画素(例えばn=5程度の値を用いることができる)の平均値を、前記n×n画素から成る領域の中心に相当する画素の非鮮鋭マスク信号とすることを、処理対象のn×n画素の領域を1画素分ずつ移動させながら繰り返すことで得ることができる。これにより、例として図7(A)に実線で示す処理対象の画像データQのレスポンス特性(空間周波数の分布)に対し、図7(A)に破線で示すように、高周波帯域での応答が画像データQよりも低くされたレスポンス特性の非鮮鋭マスク画像データQUSが得られる。
【0098】
(1)式における(Q−QUS)は、画像データQと非鮮鋭マスク画像データQUSとの差であるので、図7(B)に示すように高周波帯域に応答のピークが生ずるレスポンス特性(すなわち、図7(A)に実線で示すレスポンス特性と破線で示すレスポンス特性の差に相当するレスポンス特性)となる。従って、(1)式によって求まる鮮鋭度補正後の画像データQLのレスポンス特性は、図7(C)に実線で示す画像データQのレスポンス特性に対し、図7(C)に破線で示すように、高周波帯域においてのみ応答が高くされた特性になると共に、該特性において高周波帯域における応答高さhは高周波成分の強調度(鮮鋭度補正値)βの値に依存し、鮮鋭度補正値βの値が高くなるに従って応答高さh(高周波成分の強調度合い)も高くなる。
【0099】
上記の鮮鋭度補正を非基準波長域の各データに対して各々行うことにより、結像レンズ28の焦点距離の波長依存性に起因するR,G,B,IRの各データが表す画像の鮮鋭度を補正することができる。このように、ステップ116、118は請求項に記載の補正手段に対応している。
【0100】
なお、上記では結像レンズ28の焦点距離の波長依存性に起因する鮮鋭度のばらつきを補正していたが、結像レンズ28の像面湾曲に起因する同一画像内の鮮鋭度のばらつきも併せて補正するようにしてもよい。この補正は、R,G,B,IRの各データが表す画像中の各部における高周波成分の減衰度合いを推定し、高周波成分の減衰を各部における減衰度合いに応じて補正するための鮮鋭度補正値を、2次元のテーブル上の各部の位置に対応するアドレスに各々記憶することにより鮮鋭度補正テーブルを設定し、鮮鋭度の補正にあたり、各画素毎に、鮮鋭度補正テーブルの対応するアドレスに記憶されている鮮鋭度補正値を用いて前述の(1)式の演算を行うことで実現できる。
【0101】
次のステップ120では上記の各種補正を経たR,G,Bの画像データ及びIRデータに基づき、R,G,Bの画像データが表す処理対象の画像の欠陥部を検出する欠陥部検出処理を行う。まず欠陥部検出処理の説明に先立ち、写真フィルムに傷や異物の付いている箇所のIR光による検出の原理について説明する。
【0102】
図8(A)に示すように、写真フィルム上の表面に傷や異物が付いていない箇所に光を照射したときの透過光量は、写真フィルムへの入射光量に対し、写真フィルムによる光の吸収に応じた減衰量だけ減衰する。なお、写真フィルムで光の吸収が生ずる波長域はおおよそ可視光域であり、赤外域のIR光については殆ど吸収されないので、前記傷や異物が付いていない箇所にIR光を照射した場合の透過光量は入射光量から僅かに変化するのみである。
【0103】
一方、写真フィルム上の傷が付いている箇所に光を照射した場合、照射された光の一部は傷によって屈折するので、前記傷が付いている箇所に光を照射したときの透過光量(前記箇所を直線的に透過する光の光量)は、写真フィルムへの入射光量に対し、前述した写真フィルムによる光の吸収に起因する減衰に、傷による光の屈折に起因する減衰を加えた減衰量だけ減衰する。なお、図8(A)では光の入射側に傷が付いている場合を示しているが、光の射出側に傷が付いている場合も同様である。
【0104】
傷による光の屈折はIR光でも生ずるので、前記傷が付いている箇所にIR光を照射した場合のIR光の透過光量は、傷による光の屈折に起因する減衰に応じた減衰量だけ減衰する。なお傷による光の屈折は、例として図8(B)にも示すように、傷の規模(深さ等)が大きくなるに伴って顕著となる(可視光もIR光も同様)ので、前記傷が付いている箇所にIR光を照射した場合の透過光量は傷の規模が大きくなるに従って小さくなる。従って、IR光の透過光量の減衰量に基づいて、写真フィルムに付いている傷の規模も検知することができる。
【0105】
また、写真フィルム上の塵埃等の異物がついている箇所に光を照射した場合、照射した光は異物によって反射されるので、異物の大きさや種類(光透過率)にも依存するが、前記異物が付いている箇所に光を照射した場合の光の透過光量は前記異物によって大きく減衰する。異物が付いている箇所に光を照射した場合の透過光量の減衰は、前記箇所にIR光を照射した場合も同様である。
【0106】
上記のように、写真フィルムにIR光を透過した場合の透過光量は、写真フィルム上の傷又は異物が付いている箇所でのみ変化し、写真フィルムに画像が記録されていたとしても、該画像の透過濃度の変化の影響を受けないので、写真フィルムにIR光を照射して透過光量を検出することで、写真フィルムに付いている傷や異物を検出できる。
【0107】
上記に基づき、ステップ120では以下のようにして欠陥部検出処理を行う。写真フィルムにIR光を照射したときの透過光量は、前述のように通常は画像上の位置に拘わらず略一定となり、写真フィルムに傷又は異物が付いている箇所でのみ低下する(図9参照)。IRデータは処理対象の画像上の各位置におけるIR光の透過光量を表しているので、処理対象の画像上の傷や異物が付いていない箇所におけるIRデータが表すIR光の透過光量(例えば透過光量の最大値)を基準値とする。そして、各画素毎にIR光の透過光量を基準値と比較し、基準値に対する透過光量の変化量(低下量)が所定値(傷や異物が付いていない箇所におけるIR光の透過光量の若干の変動を考慮して定めた値)以上の画素を、修正対象の欠陥部に属する欠陥画素として全て検出する。
【0108】
またステップ120では、検出した欠陥画素を、欠陥画素相互の位置関係(例えば隣接しているか否か)等に基づいて、同一の欠陥部に属する欠陥画素毎に分類し、各欠陥部に関する情報(例えば各欠陥部に属する欠陥画素を表す情報や各欠陥画素におけるIR光の透過光量の低下量等の情報)をRAM48等に記憶する。
【0109】
なお、上記の欠陥部検出処理は各種の補正を経たR,G,B,IRの各データを用いて行われるので、写真フィルムについた傷や異物に相当する欠陥部のみを確実かつ精度良く検出できると共に、欠陥部の範囲等の誤検出も防止することができる。ステップ120は請求項に記載の欠陥部検出手段に対応している。
【0110】
次のステップ122では、欠陥部検出処理によって検出された修正対象の欠陥部に対し、各欠陥部を修正するための修正値を各々演算する。まず、欠陥部修正の原理について説明する。
【0111】
図8(B)に示すように、写真フィルムの乳剤層はR,G,Bの各感光層を含んで構成されており、画像が露光記録され現像等の処理が行われた写真フィルム(ネガフィルム)は、R感光層にCのネガ像が形成され、Gの感光層にMのネガ像が形成され、Bの感光層にYのネガ像が形成される。そして写真フィルムを透過した可視光のうち、R光についてはR感光層においてCのネガ像の透過濃度に応じた減衰量だけ減衰(吸収)され、G光についてはG感光層においてMのネガ像の透過濃度に応じた減衰量だけ減衰(吸収)され、B光についてはB感光層においてYのネガ像の透過濃度に応じた減衰量だけ減衰(吸収)される。
【0112】
ここで、例として図8(B)に示すように、乳剤面と反対側のバック面に傷が付いている場合、透過光に対するR,G,Bの各感光層における光の吸収の比率は傷が付いていない場合と同じである。すなわち、図8(B)において、写真フィルムへの入射光量をI0、傷が付いていないときのR光、G光、B光の透過光量を各々I0R,I0G,I0Bとし、傷が付いたときに傷が付いている箇所を直線的に透過して乳剤層に入射する光量をI1(I1<I0:I0−I1が傷による光の減衰分)、傷が付いているときのR光、G光、B光の透過光量を各々I1R,I1G,I1Bとすると、以下の(2)式の関係が成り立つ。
0R/I0≒I1R/I1 0G/I0≒I1G/I1 0B/I0≒I1B/I1 …(2)
【0113】
従って、バック面に傷が付いている箇所に対応する欠陥部は、傷が付いていない場合と比較して輝度のみが変化し、写真フィルムに記録されている画像の色情報は保存されているので、輝度調整方法を適用し欠陥部領域の輝度を調整することで、画像データが表す画像の欠陥部を修正することができる。
【0114】
一方、例として図8(C)に示すように乳剤面に傷が付いている場合、浅い傷であれば各感光層のうちの一部の感光層が削られることで、透過光に対するR,G,Bの各感光層における光の吸収の比率は傷が付いていない場合と変化する。また、各感光層が全て剥ぎ取られているような非常に深い傷であれば、透過光に対する各感光層における光の吸収は生じない。従って、何れの場合も(2)式の関係は成立しない。
【0115】
このように、乳剤面に傷が付いている箇所に対応する欠陥部は、傷の深さに拘わらず、傷が付いていない場合と比較して輝度及び色が各々変化しており、写真フィルムに記録されている画像の色情報も失われているので、輝度を調整しても欠陥部を精度良く修正することは困難である。このため、乳剤面に傷が付いている箇所に対応する欠陥部の修正には、欠陥部の周囲の領域の情報から補間によって欠陥部の輝度及び濃度を決定する修正方法(補間方法)が適している。なお、写真フィルムに異物が付いていることに起因して生じた欠陥部についても、異物が付いていない場合と比較して輝度及び色が各々変化するので、上記の欠陥部を修正する場合にも補間方法が適している。
【0116】
ステップ122では、まず修正対象の各欠陥部に対し、補間方法を適用して修正するか輝度調整方法を適用して修正するかを判定するための所定の特徴量を各々演算する。本実施形態では所定の特徴量の一例として、欠陥部におけるR光、G光、B光の透過光量の変化の相関を表す特徴量を用いている。
【0117】
例えば写真フィルムのバック面に傷が付いている場合、例として図9(A)に示すように、傷が付いている箇所においてR光、G光、B光の透過光量は略同様の変化を示すので、R光、G光、B光の透過光量の変化の相関は高い。一方、写真フィルムの乳剤面に傷がついている場合、例として図9(B)に示すように、傷が付いている箇所におけるR光、G光、B光の透過光量の変化は一定せず、R光、G光、B光の透過光量の変化の相関は低い(写真フィルムに異物が付いている場合も同様)。
【0118】
図9は典型的なケースを示したものであり、実際には写真フィルムの両面に傷が付いている等のように、何れの修正方法を適用すべきかが明確でないケースも多々存在しているが、R,G,Bの画像データに被写体の色に関する情報が残っていれば輝度調整方法を適用することが好ましく、前記情報が残っていない場合には補間方法を適用することが望ましいので、欠陥部におけるR光、G光、B光の透過光量の変化の相関を表す所定の特徴量(例えばR光、G光、B光の透過光量の変化の微分値の差を積算した値)に基づいて、適用すべき修正方法を個々の欠陥部毎に適正に判定することができる。
【0119】
修正対象の個々の欠陥部について、上述した所定の特徴量を各々演算すると、双方の修正方法の適用範囲の設定値(双方の修正方法の適用範囲の境界を表す閾値)を取り込み、各欠陥部の所定の特徴量を前記設定値と各々比較することにより、個々の欠陥部を単位として、補間方法を適用して修正を行うか輝度調整方法を適用して修正を行うかを各々判定する。
【0120】
そして、補間方法を適用して修正を行うと判定した欠陥部に対しては、補間方法を適用して修正値を演算する。すなわち、修正対象の欠陥部の輝度及び色を該欠陥部の周囲の領域の輝度及び色から補間によって新たに演算し、補間演算によって求まる欠陥部内の各画素の値(R,G,B毎の濃度値でもよいし、色相・明度・彩度を表す値でもよい)をD1、各画素の元の値をD2、修正度合いをαとし、欠陥部内の各画素の修正値D3を(3)式に従って求める。
D3=α・D1+(1−α)D2 …(3)
上記処理を、補間方法を適用して修正を行うと判定した欠陥部に対して各々行って、前記欠陥部に対する修正値を各々求める。
【0121】
また、輝度調整方法を適用して修正を行うと判定した欠陥部に対しては、輝度調整方法を適用して修正値を演算する。すなわち、修正対象の欠陥部におけるIR光の透過光量の変化量に基づいて欠陥部の輝度修正量を演算し、輝度修正量に応じて修正した欠陥部内の各画素の輝度値をL1、各画素の元の輝度値をL2、「欠陥部修正度合い」の現在の設定値をαとし、欠陥部内の各画素の修正値(輝度値)L3を(4)式に従って求める。
L3=α・L1+(1−α)L2 …(4)
上記処理を輝度調整方法を適用して修正を行うと判定した欠陥部に対して各々行って、前記欠陥部に対する修正値を各々求める。なお、上記のステップ122は請求項に記載の修正手段に対応している。
【0122】
修正対象の全ての欠陥部に対して修正値が各々演算されるとステップ124へ移行し、各欠陥部に対する修正値を、欠陥部の位置を表す情報(例えば各欠陥部を構成する欠陥画素のアドレス)と共にイメージプロセッサ40に通知し、欠陥部修正値決定処理を終了する。
【0123】
イメージプロセッサ40には、上記の欠陥部修正値決定処理におけるステップ102〜118の補正を経た画像データが入力され(前記補正をイメージプロセッサ40が行うようにしてもよい)、入力された画像データに対し、制御部42で欠陥部修正値決定処理が行われることで制御部42から通知された修正値に従って欠陥部を修正する(詳しくは欠陥部に属する各欠陥画素の値を、通知された修正画素値に置き換える)欠陥部修正処理を行う。これにより、修正対象の全ての欠陥部が自動的に修正されることになる。このように、イメージプロセッサ40も請求項に記載の修正手段に対応している。
【0124】
またイメージプロセッサ40は、欠陥部修正処理を行った画像データに対し、制御部42におけるセットアップ演算によって決定された処理条件で各種の画像処理を行い、I/Oコントローラ38及びI/F回路54を介してプリンタ16へ出力する。これにより、印画紙68に露光記録される画像から、修正対象として選択された欠陥部が消去される。
【0125】
なお、上記では単一のエリアCCD30によってR,G,B,IRの各波長域についての読み取り(透過光量の検出)を各々行う構成のフィルムスキャナ12を用いた例を説明したが、これに限定されるものではなく、各波長域についての読み取りを2個以上の光電変換素子で行う構成のフィルムスキャナを用いてもよい。例として図10には、各波長域についての読み取りを、各々異なるラインセンサ70B、70G、70R、70IRで行う構成のフィルムスキャナ72が示されている。
【0126】
このフィルムスキャナ72は、光源20から射出された光が、光拡散ボックス74によって写真フィルム26の幅方向に沿って長いスリット状の光束に整形されて写真フィルム26に照射され、写真フィルム26を透過した光が結像レンズ28を介して各ラインセンサ70B、70G、70R、70IRに各々入射される構成となっている。各ラインセンサの受光面には、入射光のうち検出すべき波長域の光のみ透過させるフィルタが各々設けられており、写真フィルム26が一定速度で搬送されている状態で、各ラインセンサによる各波長域についての読み取り(各波長域の光の透過光量の検出)が各々行われる。
【0127】
上記のフィルムスキャナ72のように、各波長域についての読み取りを複数の光電変換素子で行う場合、各光電変換素子の配置位置の相違に起因して、各波長域についての読み取りで各々得られた画像情報に画素ずれが発生する。例えばフィルムスキャナ72では、隣り合うラインセンサの写真フィルム26上での読取位置の間隔が、読み取りの1周期当りに写真フィルム26が搬送される距離のn倍(nは整数)となるように各ラインセンサが各々配置されていれば、各ラインセンサによる読み取りのタイミングをn周期ずつずらせば画素ずれは発生しないが、例えばラインセンサの取付位置の誤差等により、前記読取位置の間隔が前記1周期当りのフィルム搬送距離の非整数倍であった場合には、前述の画素ずれが発生する。
【0128】
このような場合には、各ラインセンサの読取位置の所期の位置に対する位置ずれ量を予め測定して記憶しておき、位置ずれ補正を行うようにしてもよい。この位置ずれ補正は、例えば写真フィルムの搬送方向と平行な方向(例えば図5(A)におけるx方向)についての歪曲収差補正及び倍率色収差補正において、位置ずれ量の測定値分だけ、位置ずれの方向と逆方向に全画素の位置が移動するように補正することで実現できる。これにより、光電変換素子の配置位置の相違に起因する画素位置のずれを補正することができる。
【0129】
なお、上述した補正は請求項に記載の補正手段に対応しており、フィルムスキャナ72のラインセンサ70B、70G、70Rは請求項に記載の第1の光電変換素子に、ラインセンサ70IRは請求項に記載の第2の光電変換素子に対応している。
【0130】
また、上記では欠陥部修正方法の一例として補間方法及び輝度調整方法を説明したが、これに限定されるものではなく、ローパスフィルタ等をかけることで欠陥部をぼかす、所謂ぼかし方法を適用してもよい。
【0131】
また、上記では写真フィルムを透過した光を光電変換することで画像を読み取る構成を説明したが、これに限定されるものではなく、写真フィルムを反射した光を光電変換することで画像を読み取る構成を採用してもよい。また、画像記録材料は写真フィルムに限定されるものではなく、写真フィルム以外の写真感光材料や普通紙、OHPシート等を画像記録材料として用いても良いことは言うまでもない。
【0132】
更に、上記ではプレスキャン時にR,G,Bの読み取りを行い、ファインスキャン時にR,G,B,IRの読み取りを行う例を説明したが、これに限定されるものではなく、IR読み取りはプレスキャン時にのみ行ってもよいし、プレスキャン時及びファインスキャン時に各々行ってもよい。
【0133】
【発明の効果】
以上説明したように発明は、画像記録材料の画像記録領域に可視光を照射し画像記録領域を透過又は反射した可視光を検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として画像記録領域に照射し画像記録領域を透過又は反射した非可視光を検出することで得られた非可視画像情報の少なくとも一方に対し、光学特性に起因する各画像情報の差異として、可視域を一部含む波長域の光が非可視光として照射されることに起因する非可視光の検出光量の変化を補正するようにしたので、欠陥部の修正精度を向上させることが可能となる、という優れた効果を有する。
【0134】
また本発明は、画像記録材料の画像記録領域に可視光を照射し画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、画像記録領域に非可視光を照射し画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報の少なくとも一方に対し、光学特性に起因する各画像情報の差異として、画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、各検出手段による検出光量の差異を補正するようにしたので、欠陥部の修正精度を向上させることが可能となる、という優れた効果を有する。
【図面の簡単な説明】
【図1】 本実施形態に係る画像処理システムの概略構成図である。
【図2】 フィルムスキャナの概略構成を示す斜視図である。
【図3】 写真フィルムに照射する光の分光特性の一例を示す線図である。
【図4】 欠陥部修正値決定処理の内容を示すフローチャートである。
【図5】 歪曲収差補正及び倍率色収差補正を説明するための、(A)は画像に対して設定したxy座標系、(B)はxP P 座標系を示す概念図である。
【図6】 写真フィルムを透過する光の波長と透過光に対する減衰度との関係の一例を示す線図である。
【図7】 (A)は画像データQ及び非鮮鋭マスク画像データQUSのレスポンス特性の一例、(B)は画像データ(Q−QUS)のレスポンス特性の一例、(C)は画像データQ及び鮮鋭度補正後の画像データQLのレスポンス特性の一例を各々示す線図である。
【図8】 (A)は写真フィルムの傷及び異物が付いていない箇所、傷が付いている箇所、異物が付いている箇所における光の透過を各々示す概念図、(B)は写真フィルムのバック面に傷が付いている場合、(C)は写真フィルムの乳剤面に傷が付いている場合の光の透過を各々示す概念図である。
【図9】 (A)はバック面に傷が付いている場合、(B)は乳剤面に傷が付いている場合のR光、G光、B光、IR光の透過光量の変化の一例を示す線図である。
【図10】 本発明の他の実施形態に係るフィルムスキャナの概略構成図である。
【符号の説明】
12 フィルムスキャナ
14 画像処理装置
20 光源
23 フィルタユニット
26 写真フィルム
28 結像レンズ
30 エリアCCD
40 イメージプロセッサ
42 制御部
72 情報記憶媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, method, and recording medium, and in particular, visible image information obtained by irradiating an image recording material with visible light and invisible image information obtained by irradiating with invisible light. The present invention relates to an image processing apparatus that performs predetermined image processing using the image processing method, an image processing method applicable to the image processing apparatus, and a recording medium on which a program for causing a computer to function as the image processing apparatus is recorded.
[0002]
[Prior art]
Depending on how the photographic film is handled, the emulsion surface or the back surface (the back side of the emulsion surface) may be scratched, but if a portion corresponding to the image recording area of the photographic film is scratched, the photographic film If the image recorded on the camera is output (recorded on an image recording material such as photographic paper or displayed on a display means such as a display), the scratches on the photographic film may be reduced in density depending on the degree of scratches. In many cases, it is clearly visible on an output image as a defective portion such as a streak or a white streak. In addition, even when foreign matter such as dust adheres to the surface of the photographic film, the foreign matter is clearly visually recognized as a defective portion.
[0003]
In surface exposure type photographic printing equipment that exposes and records images on photographic paper by irradiating light on the photographic film and irradiating the photographic paper with light that has passed through the photographic film, the light source and photographic film are used as countermeasures against scratches on the photographic film. A diffusing plate is placed between the diffusing plate and the photographic film is irradiated with light scattered by the diffusing plate. However, with the above technique, it is difficult to erase a defective portion in an output image (an image recorded by exposure on photographic paper), and the defect is only slightly reduced (not noticeable).
[0004]
As a technique applicable to an image reading apparatus configured to read an image recorded on a photographic film by a reading sensor such as a CCD, Japanese Patent Application Laid-Open No. 11-75039 discloses three wavelengths in the visible light region and a non-visible light region. Obtained by reading in the visible light range based on information obtained by reading each in a non-visible light region, reading each photographic film in a wavelength region of at least four wavelengths including one wavelength (for example, infrared region and ultraviolet region). A technique for correcting the obtained image information is disclosed.
[0005]
The light in the visible range (hereinafter referred to as visible light) changes in the amount of transmitted light according to the image density recorded on the photographic film. The amount of transmitted light changes due to partial refraction or reflection. On the other hand, light in the invisible range (hereinafter referred to as invisible light) is not affected by the image density recorded on the photographic film, although the amount of transmitted light changes where the photographic film has scratches or foreign objects. .
[0006]
Therefore, according to the technique described in the above publication, scratches and foreign matter attached to the photographic film are detected from changes in the amount of transmitted light of invisible light, and visible light transmission caused by the scratches and foreign matter attached to the photographic film is detected. Correcting fluctuations in the amount of light, that is, correcting a defective portion of an image (an image represented by image information obtained by detecting a transmitted light amount of visible light) caused by scratches or foreign matter attached to a photographic film It becomes possible.
[0007]
[Problems to be solved by the invention]
However, the visible light information is acquired by detecting the transmitted light amount of visible light, and the invisible image information is acquired by detecting the transmitted light amount of invisible light. In the case of use for detection / correction of image data, there is a problem that a difference between visible image information and invisible image information occurs due to various optical characteristics.
[0008]
  For example, the refractive index of a film base of a photographic film is generally reduced as the wavelength of light increases. For this reason, when light in the infrared wavelength region is used as invisible light, the wavelength region of invisible light (one of the optical properties) is a short wavelength as a means of improving the detection accuracy of scratches on photographic film. A slight shift to the side can be considered. However, as a part of the wavelength range of invisible light enters the visible range, absorption by the cyan dye component of the emulsion layer of photographic film occurs, and the amount of light transmitted to the photographic film as invisible light is transmitted. However, it slightly changes depending on the R density of the image recorded on the photographic film.
[0009]
  In addition, the light transmitted through the photographic film is transmitted through a portion where no image is recorded (so-called blank portion) without scratches or foreign matter, and the transmitted light amount is reduced due to refraction at the film base. Although it attenuates, the refractive index of light (attenuation of transmitted light amount) in the film base varies depending on the wavelength of transmitted light (the wavelength dependency of attenuation is also one of the optical characteristics), and the wavelength of transmitted light is long. In general, the attenuation of the transmitted light is generally reduced. For this reason, the attenuation of transmitted light due to refraction at the film base of the photographic film will be different between visible light and invisible light, and along with this, the amount of fluctuation in the amount of transmitted visible light irradiated to the photographic film, Variations in the amount of transmitted light of invisible light irradiated on the photographic film are different.
[0013]
  AndMentioned aboveChanges in the amount of transmitted light caused by shifting the wavelength range of invisible lightAnd changes in the amount of transmitted light due to the wavelength dependence of the attenuation of transmitted light due to the film baseHas a problem that, when a defective part is detected by using visible image information and non-visible image information and the defective part is corrected, the correction accuracy for the defective part is lowered.
[0014]
  The present invention has been made in view of the above facts.,Lack ofIt is an object to obtain an image processing apparatus, method, and recording medium capable of improving the accuracy of correcting a recess.
[0015]
[Means for Solving the Problems]
  In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention is directed to a first detection means for irradiating an image recording area of an image recording material with visible light and transmitting or reflecting the visible light through the image recording area. Visible image information obtained by detection, and, Light in the wavelength range including part of the visible rangeThe image recording areaToAnd transmitted or reflected through the image recording area.SaidThe acquisition means for acquiring invisible image information obtained by detecting the invisible light by the second detection means, and at least one of the visible image information and the invisible image information is caused by optical characteristics.As a difference between the pieces of image information, a change in the amount of invisible light detected by the second detection means caused by irradiation of light in a wavelength region partially including the visible region as invisible light.And correction means for correcting.
[0016]
  In the first aspect of the invention, visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and, Light in the wavelength range including part of the visible rangeImage recording areaToThe non-visible image information obtained by detecting the non-visible light transmitted or reflected by the projected image recording area by the second detection unit is acquired by the acquisition unit. The first detection means and the second detection means may be included in the image processing apparatus according to the present invention, or may be included in another apparatus (such as an image reading apparatus). When the first detection unit and the second detection unit are included in different devices, the acquisition of the visible image information and the invisible image information by the acquisition unit can be realized by receiving each image information from the other device. .
  The correction means according to the first aspect of the present invention provides a visible difference as at least one of visible image information and invisible image information as a difference between each piece of image information (visible image information and invisible image information) due to optical characteristics. The change in the detected light amount of the invisible light by the second detecting means due to the irradiation of the light in the wavelength region including a part of the region as invisible light is corrected. This correction is performed by, for example, a spectral light amount distribution of invisible light (or a ratio of light having a visible wavelength included in invisible light), which is an optical characteristic related to the wavelength range of invisible light, or the wavelength range of invisible light. Can be realized by measuring in advance the change in the detected light amount of the invisible light caused by the second detection means caused by including a part of the visible range and correcting the detected light amount of the invisible light.
  As a result, it is possible to obtain visible image information and non-visible image information in which the change in the detected light amount of the non-visible light due to the wavelength range of the non-visible light partially including the visible range is corrected. Then, when detecting the defective portion of the image represented by the visible image information and correcting the detected defective portion, as described in claim 7, by using the visible image information and the invisible image information that have been corrected by the correcting means, Due to the change in the amount of detected invisible light due to the fact that the wavelength range of invisible light partially includes the visible range, the range of the defective portion is erroneously detected when detecting the defective portion of the image, When the correction strength is set inappropriately at the time of correction, it is possible to prevent the correction of the defective portion from being inappropriate, and the correction accuracy of the defective portion can be improved.
[0017]
  An image processing apparatus according to a second aspect of the present invention is obtained by irradiating an image recording region of an image recording material with visible light and detecting visible light transmitted or reflected by the image recording region by a first detection means. Acquisition means for acquiring visible image information and invisible image information obtained by irradiating the image recording area with invisible light and detecting the invisible light transmitted or reflected by the image recording area by the second detection means And at least one of the visible image information and the invisible image information, the wavelength of the attenuation by the image recording material of the light transmitted or reflected by the image recording material as a difference between the image information due to optical characteristics And a correction unit that corrects a difference in the amount of light detected by each of the detection units due to the dependency.
[0018]
  In the invention described in claim 2, visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and the image The invisible image information obtained by irradiating the recording area with invisible light and detecting the invisible light transmitted or reflected through the image recording area by the second detection means is acquired by the acquisition means. Then, the correction means determines the wavelength dependence of the attenuation of the light transmitted through or reflected by the image recording material as a difference between the image information due to optical characteristics with respect to at least one of visible image information and invisible image information. The difference in the amount of light detected by each detection means due to the property is corrected. This correction is an optical characteristic related to the image recording material, such as the wavelength dependence of the attenuation of the transmitted or reflected light by the image recording material, or the difference in the amount of light detected by each detection means due to the wavelength dependence of the attenuation. This can be realized by measuring in advance and correcting the difference in detected light amount.
  Thereby, visible image information and non-visible image information in which the difference in the detected light amount due to the wavelength dependence of the degree of attenuation of the transmitted or reflected light by the image recording material can be obtained. Then, when detecting the defective portion of the image represented by the visible image information and correcting the detected defective portion, as described in claim 7, by using the visible image information and the invisible image information that have been corrected by the correcting means, Due to the difference in the amount of light detected due to the wavelength dependence of the attenuation of the transmitted or reflected light by the image recording material, the range of the defective part is erroneously detected when the defective part of the image is detected, or the correction strength is high when correcting the defective part. By improperly setting, it is possible to prevent improper correction of the defective portion, and it is possible to improve the correction accuracy of the defective portion.
[0019]
When a color image is recorded on the image recording material, visible light transmitted or reflected through the image recording area is detected for each of a plurality of wavelength ranges (preferably three or more different wavelength ranges) within the visible range. By doing so, it is common to obtain information representing the amount of transmitted or reflected light (or transmitted or reflected density) for each of the plurality of wavelength ranges as visible image information. For example, the visible image information may be obtained by sequentially irradiating light in the plurality of wavelength regions to the image recording region, and the first detection unit sequentially detects light transmitted or reflected through the image recording region, or the plurality of wavelength regions. Can be obtained by irradiating the image recording area with visible light including the first light, and detecting the visible light transmitted or reflected through the image recording area by decomposing it into light of the plurality of wavelength ranges. .
[0020]
  However, visible image information for each of a plurality of wavelength ranges obtained as described above has a difference due to optical characteristics related to an optical system such as a lens and a sensor and optical characteristics related to an image recording material. For this reason, the visible image information for each of the plurality of wavelength regions obtained by the first detecting unit detecting the visible light transmitted or reflected through the image recording region for each of the plurality of wavelength regions as the visible image information. Claim each3As described above, it is preferable that the correction unit corrects the difference between the pieces of image information caused by optical characteristics with respect to visible image information and non-visible image information for each of a plurality of wavelength ranges. Thereby, it becomes possible to further improve the correction accuracy of the defective part.
[0021]
  Note that when the first detection means and the second detection means are configured to detect visible light or invisible light that is transmitted or reflected through the image recording region of the image recording material and imaged by the imaging lens. Term4As described in the above, the correcting means forms an image as a difference between each piece of image information (that is, visible image information and invisible image information, or visible image information and invisible image information for each of a plurality of wavelength ranges: the same applies hereinafter). Pixel position shift caused by lateral chromatic aberration or distortion of lensAlsoIt is preferable to correct.
[0022]
For this correction, for example, the lateral chromatic aberration or distortion, which is an optical characteristic related to the imaging lens, or the deviation of the pixel positions of visible image information and invisible image information resulting from the lateral chromatic aberration or distortion is measured in advance. This can be realized by correcting the pixel position deviation. This eliminates pixel position shifts caused by magnification chromatic aberration or distortion of the imaging lens without using an expensive imaging lens that suppresses lateral chromatic aberration and distortion to the invisible range, for example. can do.
[0023]
  Therefore, the claims4According to the invention, due to the displacement of the pixel position of each image information caused by the chromatic aberration of magnification or distortion of the imaging lens (the displacement of the position of each pixel of the image represented by each image information on the actual image), It is possible to prevent the range of the defective portion from being erroneously detected when detecting the defective portion of the image, or the range that is shifted from the actual defective portion when correcting the defective portion.
[0024]
  A configuration in which the first detection means detects visible light by the first photoelectric conversion element and the second detection means detects invisible light by a second photoelectric conversion element different from the first photoelectric conversion element; That is, when the first detection means and the second detection means are configured to detect visible light or invisible light by different photoelectric conversion elements,5As described in the above, the correcting means detects the pixel position shift caused by the difference in the arrangement positions of the first photoelectric conversion element and the second photoelectric conversion element as the difference between the image information.AlsoIt is preferable to correct.
[0025]
For example, this correction can be performed by detecting a difference in the arrangement positions of the first photoelectric conversion element and the second photoelectric conversion element, which are optical characteristics related to the sensor, or a shift in the pixel position of each image information due to the difference in the arrangement position. This can be realized by measuring in advance and using it for correction of pixel position deviation. Thereby, the shift of the pixel position due to the difference in the arrangement position of the first photoelectric conversion element and the second photoelectric conversion element can be eliminated.
[0026]
  Therefore, the claims5According to the invention, due to the displacement of the pixel position due to the difference in the arrangement position of the first photoelectric conversion element and the second photoelectric conversion element, the range of the defective part is erroneously detected when detecting the defective part of the image, It is possible to prevent erroneous correction of a range deviated from the actual defective portion when correcting the defective portion. Claims5In the invention, the first photoelectric conversion element and the second conversion element may be separate or may be integrated.
[0027]
  Further, when the first detection means and the second detection means are configured to detect visible light or invisible light that is transmitted or reflected through the image recording region of the image recording material and imaged by the imaging lens, Term6As described in the above, the correction means determines the difference in the sharpness of the image represented by each image information due to the wavelength dependence of the focal length of the imaging lens as the difference in each image information.AlsoIt is preferable to correct.
[0028]
  This correction is performed in advance by measuring, for example, the difference in the sharpness of the image represented by each image information caused by the focal length for each wavelength, which is an optical characteristic related to the imaging lens, or the wavelength dependence of the focal length, This can be realized by using the sharpness correction. Thereby, the difference in sharpness due to the wavelength dependence of the focal length of the imaging lens can be eliminated. Therefore, the claims6According to the invention, due to the difference in sharpness due to the wavelength dependency of the imaging lens, the range of the defective portion is erroneously detected when detecting the defective portion of the image, or the correction strength is inappropriate when correcting the defective portion. By setting, it is possible to prevent improper correction of a defective portion, for example, an unnecessary edge is generated in an image.
[0032]
  According to an eighth aspect of the present invention, there is provided an image processing method obtained by irradiating an image recording area of an image recording material with visible light and detecting visible light transmitted or reflected by the image recording area by a first detection means. Visible image information and light in a wavelength range including a part of the visible range are applied as invisible light to the image recording area, and the invisible light transmitted or reflected by the image recording area is detected by the second detection unit. A wavelength region partially including the visible region as a difference between the image information resulting from optical characteristics with respect to at least one of the visible image information and the invisible image information. Since the change in the detected light amount of the invisible light by the second detection means caused by the irradiation of the invisible light as the invisible light is corrected, the correction accuracy of the defect portion is improved as in the first aspect of the invention. Is possible That.
[0033]
  Claim9In the image processing method according to the invention described above, the visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means. And invisible image information obtained by irradiating the image recording area with invisible light and detecting the invisible light transmitted or reflected through the image recording area by a second detection means, and obtaining the visible image information And at least one of the invisible image information due to optical characteristicsAs the difference in each image information, the difference in the amount of light detected by each detection means due to the wavelength dependence of the attenuation by the image recording material of the light transmitted or reflected by the image recording materialSo that the claims2As with the invention, it is possible to improve the correction accuracy of the defective portion.
[0034]
  The recording medium according to the invention of claim 10 isComputerVisible image information obtained by irradiating the image recording region of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording region by the first detection means, and, Light in the wavelength range including part of the visible rangeThe image recording areaToAnd transmitted or reflected through the image recording area.SaidAcquire invisible image information obtained by detecting invisible light by the second detecting means.Acquisition means,And the at least one of the visible image information and the invisible image information is caused by optical characteristics.As a difference in each image information, a change in the amount of invisible light detected by the second detection means caused by irradiation of light in a wavelength region partially including the visible region as invisible lightTo correctFunction as correction meansA program for making it happen is recorded.
  Since a program for causing a computer to function as the acquisition unit and the correction unit is recorded on the recording medium according to the tenth aspect, the computer stores the program from the recording medium according to the tenth aspect. By reading and executing the computer, the computer functions as the image processing apparatus according to the invention of claim 1, and it becomes possible to improve the correction accuracy of the defective portion as in the invention of claim 1.
[0035]
  According to an eleventh aspect of the present invention, there is provided a recording medium obtained by irradiating an image recording region of an image recording material with visible light and detecting visible light transmitted or reflected by the image recording region by a first detection means. The obtained visible image information and the invisible image information obtained by irradiating the image recording area with invisible light and detecting the invisible light transmitted or reflected through the image recording area by the second detection means are acquired. The attenuation by the image recording material of light transmitted or reflected by the image recording material as a difference between the image information due to optical characteristics with respect to at least one of the visible image information and the invisible image information. A program for functioning as a correction unit that corrects a difference in the amount of light detected by each detection unit due to the wavelength dependency of the degree is recorded.
  Since a program for causing a computer to function as the acquisition unit and the correction unit is recorded on the recording medium according to the eleventh aspect, the computer stores the program from the recording medium according to the eleventh aspect. By reading and executing the computer, the computer functions as the image processing apparatus according to the invention of claim 2 and, like the invention of claim 2, it is possible to improve the correction accuracy of the defective portion.
[0036]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In the following, as an example, a case where a defective portion caused by scratches or foreign matters attached to the photographic film is corrected will be described.
[0037]
FIG. 1 shows an image processing system 10 according to the present embodiment. The image processing system 10 includes a film scanner 12, an image processing device 14, and a printer 16 connected in series. The film scanner 12 and the image processing device 14 correspond to the image processing device according to the present invention.
[0038]
The film scanner 12 is an image recorded on a photographic light-sensitive material (hereinafter simply referred to as a photographic film) such as a photographic film (for example, a negative film or a reversal film). Image or positive image) and image data obtained by the reading is output, and as shown in FIG. 2, a light source 20 is provided which comprises a halogen lamp or the like and irradiates the photographic film 26 with light. . The light emitted from the light source includes light having a wavelength in the visible light region and light having a wavelength in the infrared region.
[0039]
On the light emission side of the light source 20, an aperture 21 for adjusting the amount of light applied to the photographic film 26, a filter unit 23, and a light diffusion box 22 that uses the light applied to the photographic film 26 as diffused light are sequentially arranged. ing. The filter unit 23 includes a filter 23C that transmits only light in a wavelength region corresponding to R (R light) among incident light, and a filter 23M that transmits only light (G light) in a wavelength region corresponding to G among incident light. FIG. 2 shows four filters: a filter 23Y that transmits only light in the wavelength region corresponding to B (B light) of incident light, and a filter 23IR that transmits light in the infrared region (IR light) of incident light. It is configured to be fitted into a turret 23A that is rotatable along the direction of arrow A.
[0040]
On the opposite side of the light source 20 across the photographic film 26, an imaging lens 28 and an area CCD 30 are arranged in this order along the optical axis L to form an image of light transmitted through the photographic film 26. The area CCD 30 is a monochrome CCD in which a large number of CCD cells each having sensitivity in the visible light region and the infrared region are arranged in a matrix, and the light receiving surface substantially coincides with the imaging point position of the imaging lens 28. Is arranged. A shutter (not shown) is provided between the area CCD 30 and the imaging lens 28.
[0041]
The area CCD 30 is connected to the scanner control unit 33 via the CCD driver 31. The scanner control unit 33 includes a CPU, a ROM (for example, a ROM capable of rewriting stored contents), a RAM, and an input / output port, which are connected to each other via a bus or the like. The scanner control unit 33 controls the operation of each unit of the film scanner 12. The CCD driver 31 generates a drive signal for driving the area CCD 30 and controls the drive of the area CCD 30.
[0042]
The photographic film 26 is conveyed by a film carrier 24 (see FIG. 1, not shown in FIG. 2), and is positioned at a position (reading position) where the screen center of the image coincides with the optical axis L. The scanner control unit 33 rotates the turret 23A of the filter unit 23 so that all the filters 23 including the filter 23IR are sequentially positioned on the optical axis L while the image is positioned at the reading position. The charge accumulation time of the area CCD 30 corresponding to the predetermined reading condition is set in the CCD driver 31, and the diaphragm 21 is moved to a position corresponding to the predetermined reading condition.
[0043]
As a result, the image recording area on the photographic film 26 is sequentially irradiated with light in the wavelength region (R, G, B, or IR) corresponding to each filter 23, and the light transmitted through the image recording area on the photographic film 26 is the area. It is detected by the CCD 30 (more specifically, photoelectrically converted), and is output from the area CCD 30 as a signal representing the amount of transmitted light. The signal output from the area CCD 30 is converted into digital data representing the amount of transmitted light by the A / D converter 32 and input to the image processing device 14. Thus, the film scanner 12 has functions as the first detection means and the second detection means according to the present invention.
[0044]
  Note that the amount of light transmitted in each wavelength region of R, G, and B varies according to the R, G, and B density of the image recorded in the image recording region (the photographic film 26 has scratches and foreign matter attached thereto). However, the amount of transmitted IR light is not affected by the image density and changes only due to scratches, foreign matter, etc.). Therefore, photoelectric conversion of the transmitted light in each of the R, G, and B wavelength ranges corresponds to reading an image. In the following description, the R, G, B, and IR wavelength ranges input to the image processing apparatus 14 Each of R, G, and B data except IR is referred to as image data. Note that R, G, and B image data are visible image information according to the present invention (more specifically, claims).3And the IR data corresponds to the non-visible image information according to the present invention.
[0045]
In general, a film base of a photographic film has a characteristic that the refractive index decreases as the wavelength of transmitted light increases, and attaches to the photographic film as the wavelength of IR light deviates to the longer wavelength side. The accuracy of detecting a defective portion caused by a scratch or a foreign object is reduced. In the present embodiment, in order to ensure the detection accuracy of the defective portion by IR light, as shown in FIG. 3 as an example, as the filter 23IR, the wavelength region of IR light that passes through the filter 23IR and is irradiated to the photographic film. Uses a filter having spectral characteristics that deviate toward the visible region (short wavelength side), and the light irradiated to the photographic film as IR light contains light in the visible region.
[0046]
On the other hand, the scanner correction unit 36 of the image processing apparatus 14 sequentially performs various correction processes such as dark correction, density conversion, and shading correction on the input image data (and IR data). The output end of the scanner correction unit 36 is connected to the input end of the I / O controller 38, and the image data that has been subjected to each process by the scanner correction unit 36 is input to the I / O controller 38. The input end of the I / O controller 38 is also connected to the data output end of the image processor 40, and image data subjected to image processing (details will be described later) is input from the image processor 40.
[0047]
The input end of the I / O controller 38 is also connected to the control unit 42. The control unit 42 includes an expansion slot (not shown). In this expansion slot, a PC card or an IC card (hereinafter collectively referred to as a digital camera card) that can be loaded into a digital still camera, a CD-ROM, A driver (not shown) for reading / writing data (or a program) to / from an information storage medium such as an MO or CD-R, and a communication control device for communicating with other information processing devices are connected. Image data input from the outside via the expansion slot is input to the I / O controller 38.
[0048]
The output end of the I / O controller 38 is connected to the data input end of the image processor 40 and the control unit 42, and is further connected to the printer 16 via the I / F circuit 54. The I / O controller 38 selectively outputs the input image data to each device connected to the output terminal.
[0049]
In the present embodiment, each image recorded on the photographic film 26 is read twice at different resolutions by the film scanner 12. Note that, in the aspect in which the area sensor (area CCD 30) is used as the reading sensor as in the present embodiment, the switching of the reading resolution (obtaining image data having different resolutions at each reading) is fine even during pre-scanning, for example. The image data is read at the same high resolution as at the time of scanning, and post-processing such as pixel thinning or pixel integration is performed on the obtained image data, or at the time of fine scanning, reading is performed multiple times by the area sensor. Can be realized by moving the area sensor by a distance corresponding to 1 / integer of the pixel interval by an actuator such as a piezo element.
[0050]
In the first reading at a relatively low resolution (pre-scan), even when the image density is very low, the reading conditions determined so as not to saturate accumulated charges in the area CCD 30 (irradiate the photographic film 26). Each image is read with the amount of light for each wavelength region of light R, G, and B and the charge accumulation time of the area CCD 30. In the present embodiment, IR reading is not performed during pre-scanning. Data obtained by this prescan (prescan image data) is input from the I / O controller 38 to the control unit 42.
[0051]
The control unit 42 includes a CPU 46, a RAM 48, a ROM 50 (for example, a ROM capable of rewriting stored contents), and an input / output port 52, which are connected to each other via a bus. The control unit 42 calculates an image feature amount such as image density based on the pre-scan image data input from the I / O controller 38, and the film scanner 12 performs re-processing at a relatively high resolution for each image. Reading conditions for reading (fine scanning) are determined, and the determined reading conditions are output to the film scanner 12.
[0052]
Further, the control unit 42 calculates an image feature amount including extraction of a main image area (for example, an area corresponding to a human face (face area)) in the image based on the pre-scanned image data. Various processing conditions for image processing on image data (fine scan image data) obtained by performing fine scanning are automatically determined by a calculation (setup calculation), and the determined processing conditions are output to the image processor 40.
[0053]
Note that the control unit 42 determines whether or not a defective portion caused by a foreign matter such as a scratch or dust attached to the photographic film 26 is generated in the image represented by the image data based on the IR data input from the film scanner 12. A function for searching whether or not, and a function for setting a parameter for the image processor 40 to perform the defect correction process. A display 43, a keyboard 44, and a mouse (not shown) are connected to the bus of the control unit 42.
[0054]
The control unit 42 generates simulation image data by performing image processing equivalent to the image processing performed by the image processor 40 on the fine scan image data on the pre-scan image data based on the calculated processing conditions of the image processing. To do. Then, the generated simulation image data is converted into a signal for displaying an image on the display 43, and the simulation image is displayed on the display 43 based on the signal. Further, when the displayed simulation image is verified by the operator, such as image quality, and information for instructing correction of processing conditions is input as a verification result via the keyboard 44 or the mouse, based on the input information. Recalculate processing conditions for image processing.
[0055]
On the other hand, image data (fine scan image data) input to the I / O controller 38 by performing fine scan on the image by the film scanner 12 is input from the I / O controller 38 to the image processor 40.
[0056]
The image processor 40 enhances sharpness while suppressing graining, color / density correction processing including gradation conversion and color conversion, pixel density conversion processing, hypertone processing for compressing the gradation of the ultra-low frequency luminance component of the image, and graininess. Each image processing circuit is equipped with various image processing such as hyper-sharpness processing, and the input image data is subjected to various image processing according to the processing conditions determined and notified for each image by the control unit 42. Do. Further, the image processor 40 has a function of performing defect portion correction processing according to the parameters set by the control unit 42.
[0057]
When image data that has been subjected to image processing by the image processor 40 is used for recording an image on photographic paper, the image data that has been subjected to image processing by the image processor 40 is transferred from the I / O controller 38 to an I / F circuit. The image data is output to the printer 16 via 54. When the image data after image processing is output to the outside as an image file, the image data is output from the I / O controller 38 to the control unit 42. Thus, the control unit 42 outputs the image data input from the I / O controller 38 for output to the outside to the outside (the driver, the communication control device, etc.) as an image file through the expansion slot.
[0058]
The printer 16 includes an image memory 58, R, G, and B laser light sources 60, and a laser driver 62 that controls the operation of the laser light sources 60. The recording image data input from the image processing device 14 is temporarily stored in the image memory 58, read out, and used for modulation of R, G, and B laser beams emitted from the laser light source 60. The laser light emitted from the laser light source 60 is scanned on the photographic paper 68 through the polygon mirror 64 and the fθ lens 66, and an image is exposed and recorded on the photographic paper 68. The photographic paper 68 on which the image is recorded by exposure is sent to the processor unit 18 and subjected to color development, bleach-fixing, washing with water, and drying. Thereby, the image exposed and recorded on the photographic paper 68 is visualized.
[0059]
  Next, as an operation of the present embodiment, a defect portion correction value determination process executed by the control unit 42 when fine scan image data is input from the scanner 12 to the image processing device 14 will be described. The defect correction value determination process is claimed in claim8,9 is implemented by executing a defect portion correction value determination program by the CPU 46 of the control unit 42. The defect portion correction value determination program is initially stored in the information storage medium 72 (see FIG. 1) together with a program for causing the CPU 46 to execute other processes. Although the information storage medium 72 is shown as a floppy disk in FIG. 1, it may be constituted by a CD-ROM or a memory card.
[0060]
  When the information reading medium (not shown) connected to the control unit 42 is loaded with the information storage medium 72 and an instruction to transfer (install) the program from the information storage medium 72 to the image processing apparatus 14 is given, the information reading apparatus A defective portion correction value determination program or the like is read from the information storage medium 72 and stored in a ROM 50 that can rewrite the stored contents. When the timing for executing the defective portion correction value determination process arrives, the defective portion correction value determination program is read from the ROM 50, and the program is executed by the CPU 46. Thus, the image processing apparatus 14 is claimed in claim 1., 2It functions as an image processing apparatus described in 1. Thus, the information storage medium 72 storing the defect portion correction value determination program or the like is claimed in claim 10., 11It corresponds to the recording medium described in.
[0061]
Hereinafter, the defect portion correction value determination processing will be described with reference to the flowchart of FIG. In step 100, R, G, B image data and IR data of a single image (processing target image) input to the control unit 42 are taken into the RAM 48 or the like. Step 100 corresponds to the acquisition means of the present invention. The next steps 102 to 118 correspond to the correcting means of the present invention.
[0062]
That is, in step 102, correction data for correcting distortion aberration and lateral chromatic aberration of the imaging lens 28 of the film scanner 12 is fetched from the ROM 50. The distortion aberration correction data according to the present embodiment is data used for distortion aberration correction for correcting the geometric distortion of the image caused by the distortion aberration of the imaging lens 28, and the image caused by the distortion aberration of the imaging lens 28. It is set based on the result of measuring the change direction and the change amount of the pixel position at each of the above positions.
[0063]
In the present embodiment, G is adopted as the reference wavelength region, and the amount of distortion (amount of distortion) of the pixel position for G at each position on the image due to the distortion of the imaging lens 28 is measured as distortion correction data. The result is decomposed in the x and y directions, and the amount of distortion at each position on the image is expressed as xPyPCoordinate system (center position of image (xP0, YP0) As the origin (= (0,0)) and any pixel on the image is represented as a coordinate value (xP, YP) (Refer to FIG. 5B)) as a reference, the distortion aberration amount Dx (xP, YP) And a distortion aberration amount Dy (xP, YP) Is used.
[0064]
The lateral chromatic aberration correction data is data used for lateral chromatic aberration correction that corrects color misregistration of an image caused by lateral chromatic aberration of the imaging lens 28. At each position on the image caused by lateral chromatic aberration of the imaging lens 28. Is set based on the result of measuring the change direction and change amount of the pixel position of the image represented by the non-reference wavelength region data with respect to the pixel position of the image represented by the reference wavelength region data.
[0065]
In the present embodiment, R, B, and IR are employed as the non-reference wavelength region, and R pixel positions relative to G at each position on the image due to the magnification chromatic aberration of the imaging lens 28 are used as R magnification chromatic aberration correction data. The measurement result of the amount of change (the amount of chromatic aberration of magnification) is decomposed in the x and y directions, and the amount of chromatic aberration of magnification of R at each position on the image isPyPAmount of chromatic aberration of magnification ΔRx (x in the x direction of R with reference to the coordinate systemP, YP) And R magnification chromatic aberration amount ΔRy (x in the y direction)P, YP) Is used.
[0066]
Further, as the B magnification chromatic aberration correction data, the measurement results of the amount of change in the pixel position of B with respect to G (magnification chromatic aberration amount) at each position on the image due to the magnification chromatic aberration of the imaging lens 28 are expressed in the x and y directions. And the amount of lateral chromatic aberration of B at each position on the image is expressed as xPyPWith reference to the coordinate system, the amount of lateral chromatic aberration ΔBx (xP, YP) And B in the y-direction magnification chromatic aberration amount ΔBy (xP, YP) Is used.
[0067]
Furthermore, as IR magnification chromatic aberration correction data, measurement results of the amount of change in the IR pixel position with respect to G (amount of chromatic aberration of magnification) at each position on the image caused by the magnification chromatic aberration of the imaging lens 28 are measured in the x and y directions. The amount of chromatic aberration of magnification of IR at each position on the image is expressed as xPyPWith reference to the coordinate system, the amount of lateral chromatic aberration ΔIRx (xP, YP) And IR chromatic aberration amount ΔIRy (xP, YP) Is used.
[0068]
In the next step 104, based on the distortion aberration correction data and magnification chromatic aberration correction data fetched from the ROM 50, distortion aberration / magnification chromatic aberration correction is performed for each of the R, G, B, and IR data in the y and x directions. Do.
[0069]
That is, first, the coordinate value (x, y) of each pixel of the image data is set to x based on the center position of the image.PyPCoordinate values (x in the coordinate system (see FIG. 5B))P, YP) (XP= XxP0, YP= Y-yP0: After normalization, the coordinate value after normalization is (xP, YP) Pixel coordinates (xP, YP) As a key, the distortion aberration amount Dy (x) in the corresponding y direction from the distortion correction data acquired in step 102.P, YP) And coordinates (xP, YP) Pixel data R (xP, YP), G (xP, YP), B (xP, YP), IR (xP, YP) Is converted for all pixels.
R (xP, YPR') ← R (xP, YP) G (xP, YPG) ← G (xP, YP)
B (xP, YPB') ← B (xP, YP) IR (xP, YPIR') ← IR (xP, YP)
However, yPR'= YPG= YPB'= YPIR'= YP+ Dy (xP, YP)
[0070]
Also, the normalized coordinate value is (xP, YP) Pixel (the coordinate value after distortion correction in the y direction is (xP, YPRThe coordinates (xP, YP) As a key, the magnification chromatic aberration amount ΔRy (x in the y direction of the corresponding R from the magnification chromatic aberration correction data of R captured in step 102.P, YP) And the coordinate value after distortion correction in the y direction is (xP, YPR') Pixel R data R (xP, YPRThe coordinates of ') are converted according to the following formula for all pixels.
Figure 0003939466
[0071]
Also, the normalized coordinate value is (xP, YP) For pixel B data, the coordinates (xP, YP) As a key, the magnification chromatic aberration amount ΔBy (x in the y direction of the corresponding B from the B magnification chromatic aberration correction data captured in step 102.P, YP) And the coordinate value after distortion correction in the y direction is (xP, YPB') Pixel B data B (xP, YPBThe coordinates of ') are converted according to the following formula for all pixels.
Figure 0003939466
[0072]
Furthermore, the normalized coordinate value is (xP, YP) For the IR data of pixel (x)P, YP) As a key, the amount of chromatic aberration of magnification ΔIRy (xP, YP) And the coordinate value after distortion correction in the y direction is (xP, YPIR') IR data IR (xP, YPIRThe coordinates of ') are converted according to the following formula for all pixels.
Figure 0003939466
[0073]
Thus, distortion aberration correction in the y direction and R, B, and IR magnification chromatic aberration correction in the y direction are performed, and the position of each pixel of the image represented by each data of R, G, B, and IR is independent of each other. Respectively moved in the y direction.
[0074]
Next, the original position of each pixel of the image in the y direction (hereinafter, this position is expressed as a coordinate value (xP, YP0)). And the coordinate value (xP, YP0) At the position of R), the data R (xP, YPR), The coordinate value (xP, YP0) Between two positions adjacent to each other with the interpolation calculation. Also, the coordinate value (xP, YP0) At the position G), the data G (xP, YPG), The coordinate value (xP, YP0) Is obtained by interpolation based on G data at two positions adjacent to each other, and a coordinate value (xP, YP0) At the position B), the data B (xP, YPB), The coordinate value (xP, YP0) Between two positions adjacent to each other with the interpolation calculation based on the B data, and the coordinate value (xP, YP0), The IR value at the position of the data IR (xP, YPIR), The coordinate value (xP, YP0) Between two positions adjacent to each other on the basis of IR data. By performing the above processing for all the pixels of the image, the distortion aberration correction and the magnification chromatic aberration correction in the y direction are completed.
[0075]
Subsequently, distortion correction and lateral chromatic aberration correction are performed in the x direction. That is, the coordinate value of the image data is (xP, YP0) Pixel coordinates (xP, YP0) As a key, the distortion aberration amount Dx (xP, YP0) (Note that the coordinates (xP, YP0) Is not stored as data, the coordinates (x) are based on the distortion aberration amounts at positions around the coordinates.P, YP0) To determine the amount of distortion in interpolation), coordinates (xP, YP0) Pixel data R (xP, YP0), G (xP, YP0), B (xP, YP0), IR (xP, YP0) Is converted for all pixels.
R (xPR', yP0) ← R (xP, YP0) G (xPG, YP0) ← G (xP, YP0)
B (xPB', yP0) ← B (xP, YP0) IR (xPIR', yP0) ← IR (xP, YP0)
Where xPR'= XPG= XPB'= XPIR'= XP+ Dx (xP, YP0)
[0076]
The coordinate value before distortion correction in the x direction is (xP, YP0) Pixel (the coordinate value after distortion correction in the x direction is (xPR', yP0) Pixel)) for the R data, the coordinates (xP, YP0) As a key, the amount of chromatic aberration of magnification ΔRx (xP, YP0) (Note that the coordinates (xP, YP0) Is not stored as data, the magnification chromatic aberration amount is calculated by interpolation as described above), and the coordinate value after distortion aberration correction in the x direction is (xPR', yP0) Pixel R data R (x)PR', yP0) Is converted for all pixels.
Figure 0003939466
[0077]
The coordinate value before distortion correction in the x direction is (xP, YP0) For pixel B data, the coordinates (xP, YP0) As a key, the amount of chromatic aberration of magnification ΔBx (x in the x direction of B corresponding from the magnification chromatic aberration correction data of BP, YP0) And the coordinate value after distortion correction in the x direction is (xPB', yP0) Pixel B data B (x)PB', yP0) Is converted for all pixels.
Figure 0003939466
[0078]
Further, the coordinate value before distortion correction in the x direction is (xP, YP0) For the IR data of pixel (x)P, YP0) As a key, the amount of chromatic aberration of magnification ΔIRx (xP, YP0) And the coordinate value after distortion correction in the x direction is (xPIR', yP0) Pixel IR data IR (xPIR', yP0) Is converted for all pixels.
Figure 0003939466
[0079]
As described above, distortion aberration correction in the x direction and R, B, and IR magnification chromatic aberration correction in the x direction are performed, and the positions of the pixels of the image represented by the R, G, B, and IR data are independent of each other. Respectively moved in the x direction.
[0080]
Next, the original position in the x direction of each pixel of the image (hereinafter, this position is expressed as a coordinate value (xP0, YP0)). And the coordinate value (xP0, YP0) At the position of R), the data R (xPR, YP0), The coordinate value (xP0, YP0) Between two positions adjacent to each other with the interpolation calculation. Also, the coordinate value (xP0, YP0) At the position G), the data G (xPG, YP0), The coordinate value (xP0, YP0) Is obtained by interpolation based on G data at two positions adjacent to each other, and a coordinate value (xP0, YP0) At the position B), the data B (xPB, YP0), The coordinate value (xP0, YP0) Between two positions adjacent to each other with the interpolation calculation based on the B data, and the coordinate value (xP0, YP0), The IR value at the position of the data IR (xPIR, YP0), The coordinate value (xP0, YP0) Between two positions adjacent to each other on the basis of IR data.
[0081]
  By performing the above processing for all the pixels of the image, distortion aberration correction and magnification chromatic aberration correction in the x direction are performed, and the distortion aberration correction processing and magnification chromatic aberration correction processing are completed. By the above distortion aberration correction and magnification chromatic aberration correction, the pixel shift of the image represented by the R, G, B, and IR data caused by the distortion aberration and magnification chromatic aberration of the imaging lens 28 is corrected. Steps 102 and 104 are claimed.4This corresponds to the correction means described in (1).
[0082]
In the next step 106, correction for correcting a change in the detected value of the transmitted light amount of IR light due to light in the visible range included in the light irradiated to the photographic film as IR light (hereinafter referred to as wavelength separation correction). Import parameters. In step 108, wavelength separation correction is performed on the IR data based on the acquired correction parameters. In this wavelength separation correction, the following equation is calculated for each pixel based on R, G, B, and IR data subjected to distortion aberration correction and magnification chromatic aberration correction, and IR data of all pixels is obtained from the following equation: It can be realized by replacing with '.
[0083]
[Expression 1]
Figure 0003939466
[0084]
In the above equation, B, G, R, and IR represent the B, G, R, and IR values of the pixel to be calculated, and IR ′ represents the IR value after wavelength separation correction. A0, A1, A2, AThreeIs a correction parameter for performing wavelength separation correction, and is a coefficient for the B, G, R, and IR values of each pixel to be calculated. In the present embodiment, based on the characteristics of the filter 23IR, the proportion of visible light and the wavelength range of the light irradiated to the photographic film as IR light are obtained, and the value of each coefficient of the correction parameter is calculated based on the calculation result. It is set and stored in the ROM 50.
[0085]
FIG. 3 shows an example of the spectral characteristics of light irradiated to the photographic film as IR light (characterized as “IR” in FIG. 3). In this characteristic, the light irradiated as the IR light is shown. The ratio of visible light is about several percent, and the wavelength range is distributed only in the wavelength range corresponding to R (in this case, the transmitted light amount of visible light included in the light irradiated as IR light is an image). As an example, a0= 0, a1= 0, a2= -0.03, aThreeA value such as = 1 can be set.
[0086]
  By performing the wavelength separation correction described above, the change in the detected value of the transmitted light amount of the IR light due to the fact that visible light is included in the light irradiated as the IR light is corrected. Steps 106 and 108 are claimed.1This corresponds to the correction means described in (1).
[0087]
By the way, the light transmitted through the photographic film has a transmitted light amount due to refraction at the film base even when it is transmitted through a portion where no image is recorded (so-called blank portion) without scratches or foreign matters. Although the light is attenuated, the refractive index of light (attenuation of transmitted light amount) in the film base varies depending on the wavelength of transmitted light (wavelength dependence of attenuation). As an example, as shown in FIG. In general, the attenuation characteristic of transmitted light decreases as the length increases. The wavelength-attenuation characteristics vary depending on the film base material (type of photographic film).
[0088]
For this reason, in this embodiment, the wavelength-attenuation characteristic of the photographic film is measured for each type of photographic film, and based on the measurement result of the wavelength-attenuation characteristic, this results from the wavelength dependence of the attenuation by the photographic film. Attenuation correction amounts for correcting fluctuations in the amount of transmitted light of R, G, B, and IR are determined for each type of photographic film, and the determined attenuation correction amount is associated with information representing the type of photographic film. It is stored in advance in the ROM 50 as attenuation correction data.
[0089]
In step 110, information representing the type of photographic film to be read, which is detected when the film scanner 12 reads the photographic film, is fetched. The type of photographic film can be detected by reading a DX code recorded on the side edge of the photographic film in the form of a barcode or the like when the photographic film is manufactured. In the next step 112, attenuation correction data corresponding to the type of the photographic film to be read is fetched from the ROM 50 based on the information fetched in step 110. In step 114, the R, G, B, IR transmission due to the wavelength dependence of the attenuation by the photographic film is performed on the R, G, B, IR data according to the attenuation correction data fetched in step 112. The variation in the amount of light is corrected for each pixel.
[0090]
  Thus, the values of R, G, B, and IR data are based on the assumption that the attenuation of transmitted light due to refraction at the film base of a photographic film is constant regardless of the wavelength (eg, attenuation = 0). It is corrected to a value corresponding to the transmitted light amount of R, G, B, IR. Said steps 110 to 114 are claimed2This corresponds to the correction means described in (1).
[0091]
By the way, since the focal length of the lens changes according to the wavelength of light transmitted through the lens (the wavelength dependency of the focal length), reading for each wavelength region of R, G, B, and IR with respect to a single image. In this case, the image forming position of the image by the imaging lens 28 changes for each wavelength range of the transmitted light with respect to the light receiving surface position of the area CCD 30, and reading for each wavelength range (transmitted light amount for each wavelength range). The sharpness of the image represented by each of the R, G, B, and IR data obtained by (detection of the above) is also different.
[0092]
When reading is sequentially performed for each wavelength region as in the present embodiment, the difference in the sharpness is, for example, the image formation of the film scanner 12 for the wavelength region to be read before performing the reading for each wavelength region. This can be solved by performing autofocus (AF) processing for automatically matching the image formation position of the image by the lens 28 with the light receiving surface position of the area CCD 30, but a new problem that it takes time to read the image instead. Arise.
[0093]
In the present embodiment, when reading a single image is started, instead of performing AF processing only for a predetermined reference wavelength range (for example, G) and performing AF processing for each wavelength range, the following steps are performed. At 116 and 118, sharpness correction processing is performed to correct each data so that the sharpness of the image represented by each of the R, G, B, and IR data matches.
[0094]
That is, in step 116, a sharpness correction value for correcting the variation in sharpness of each R, G, B, and IR data caused by the wavelength dependence of the focal length of the imaging lens 28 is fetched from the ROM 50. This sharpness correction value represents the enhancement degree of the high frequency component with respect to the image represented by each data (a reduction in sharpness appears as attenuation of the high frequency component in the spatial frequency distribution), and the high frequency component in the image represented by each data. The degree of enhancement is set so as to increase as the degree of attenuation increases, and is stored in advance in the ROM 50.
[0095]
Specifically, from the focal length of the imaging lens 28 for each wavelength region of R, G, B, and IR, the focal length of the imaging lens 28 and the non-reference wavelength region (for example, R, B, IR) with respect to the focal length of the imaging lens 28 is obtained for each non-reference wavelength region, the degree of attenuation of the high-frequency component is estimated based on this focal length deviation, and for each non-reference wavelength region. Each sharpness correction value is set in accordance with the attenuation degree of the high-frequency component.
[0096]
In the next step 118, the sharpness correction is performed on the data in the non-reference wavelength region based on the sharpness correction value fetched in step 116. This sharpness correction can be realized, for example, by performing the following equation (1).
QL = Q + β (Q−QUS) (1)
However, Q is image data to be corrected (non-reference wavelength range (for example, R, B, or IR data), QL is image data after sharpness correction, QUS is unsharp mask image data, and β is an enhancement degree of high frequency components. (Sharpness correction value).
[0097]
The non-sharp mask image data QUS is, for example, an average value of n × n pixels (for example, a value of about n = 5 can be used) existing in the corners of the image with respect to the image data Q to be corrected. It is possible to obtain an unsharp mask signal for a pixel corresponding to the center of a region composed of × n pixels by repeating the region of the n × n pixel to be processed by moving one pixel at a time. Accordingly, as an example, the response characteristic (spatial frequency distribution) of the image data Q to be processed indicated by the solid line in FIG. 7A has a response in the high frequency band as indicated by the broken line in FIG. The non-sharp mask image data QUS having a response characteristic lower than that of the image data Q is obtained.
[0098]
Since (Q−QUS) in the equation (1) is the difference between the image data Q and the unsharp mask image data QUS, as shown in FIG. FIG. 7A shows a response characteristic corresponding to the difference between the response characteristic indicated by the solid line and the response characteristic indicated by the broken line. Accordingly, the response characteristic of the image data QL after sharpness correction obtained by the equation (1) is as shown by a broken line in FIG. 7C, compared to the response characteristic of the image data Q indicated by a solid line in FIG. 7C. In this characteristic, the response height h in the high frequency band depends on the enhancement degree (sharpness correction value) β of the high frequency component, and the sharpness correction value β As the value increases, the response height h (high frequency component enhancement degree) also increases.
[0099]
  By performing the above-described sharpness correction on each data in the non-reference wavelength range, the sharpness of the image represented by the R, G, B, and IR data resulting from the wavelength dependence of the focal length of the imaging lens 28 is obtained. The degree can be corrected. Thus, steps 116 and 118 are claimed.6This corresponds to the correction means described in (1).
[0100]
In the above description, the variation in sharpness due to the wavelength dependence of the focal length of the imaging lens 28 is corrected. However, the variation in sharpness in the same image due to the curvature of field of the imaging lens 28 is also combined. May be corrected. This correction estimates the degree of attenuation of the high-frequency component in each part in the image represented by each data of R, G, B, and IR, and corrects the sharpness correction value for correcting the attenuation of the high-frequency component according to the degree of attenuation in each part. Is stored at addresses corresponding to the positions of the respective parts on the two-dimensional table, and a sharpness correction table is set. For sharpness correction, each pixel is stored at a corresponding address in the sharpness correction table. This can be realized by performing the calculation of the above-described equation (1) using the sharpness correction value.
[0101]
In the next step 120, a defect portion detection process for detecting a defect portion of the image to be processed represented by the R, G, B image data based on the R, G, B image data and IR data subjected to the above various corrections. Do. First, prior to the description of the defect detection process, the principle of detection by IR light of a spot where a scratch or a foreign object is attached to the photographic film will be described.
[0102]
As shown in FIG. 8 (A), the amount of transmitted light when light is applied to a spot on the surface of the photographic film where there are no scratches or foreign matter is absorbed by the photographic film relative to the amount of incident light on the photographic film. Attenuation is performed according to the amount of attenuation. Note that the wavelength range where light absorption occurs in a photographic film is approximately the visible light range, and IR light in the infrared region is hardly absorbed. Therefore, transmission when IR light is applied to a place where there is no scratch or foreign matter is present. The amount of light only changes slightly from the amount of incident light.
[0103]
On the other hand, when light is irradiated on a spot on a photographic film, a part of the irradiated light is refracted by the scratch, so that the amount of transmitted light when the light is irradiated on the spot with the scratch ( Attenuation of light incident on the photographic film by adding attenuation due to light refraction due to scratches to the attenuation due to light absorption by the photographic film. Attenuate by the amount. Although FIG. 8A shows a case where the light incident side is scratched, the same applies to the case where the light emission side is scratched.
[0104]
Since refraction of light due to scratches occurs even with IR light, the amount of IR light transmitted when IR light is irradiated to the scratched part is attenuated by an attenuation amount corresponding to attenuation due to light refraction due to scratches. To do. As shown in FIG. 8B as an example, the refraction of light due to scratches becomes more noticeable as the scratch scale (depth, etc.) increases (same for visible light and IR light). The amount of transmitted light when IR light is applied to a scratched portion decreases as the size of the scratch increases. Accordingly, it is possible to detect the scale of the scratch on the photographic film based on the attenuation amount of the transmitted light amount of the IR light.
[0105]
In addition, when light is irradiated on a part of a photographic film where foreign matter such as dust is attached, the irradiated light is reflected by the foreign matter, and the foreign matter depends on the size and type (light transmittance) of the foreign matter. The amount of transmitted light when light is irradiated on the part marked with is greatly attenuated by the foreign matter. The attenuation of the amount of transmitted light when light is applied to a part with a foreign object is the same when IR light is applied to the part.
[0106]
As described above, when the IR light is transmitted through the photographic film, the amount of transmitted light changes only at a spot on the photographic film where there are scratches or foreign matter, and even if an image is recorded on the photographic film, the image Therefore, it is possible to detect scratches and foreign matter attached to the photographic film by irradiating the photographic film with IR light and detecting the amount of transmitted light.
[0107]
Based on the above, in step 120, the defect detection process is performed as follows. As described above, the amount of transmitted light when irradiating IR light on a photographic film is generally constant regardless of the position on the image as described above, and decreases only at a point where the photographic film is scratched or foreign (see FIG. 9). ). Since the IR data represents the amount of IR light transmitted at each position on the image to be processed, the amount of IR light transmitted (for example, transmitted light) represented by the IR data at a location on the image to be processed without scratches or foreign matter. The maximum value of the light amount is used as a reference value. Then, the amount of transmitted IR light is compared with a reference value for each pixel, and the amount of change (decrease amount) in the amount of transmitted light with respect to the reference value is a predetermined value (a little of the amount of transmitted IR light at a place where there is no scratch or foreign object) All the pixels having a value equal to or greater than the value determined in consideration of the fluctuations in (1) are detected as defective pixels belonging to the defect portion to be corrected.
[0108]
In step 120, the detected defective pixels are classified into defective pixels belonging to the same defective portion based on the positional relationship between the defective pixels (for example, whether they are adjacent to each other), and information about each defective portion ( For example, information indicating defective pixels belonging to each defective portion and information such as a decrease in the amount of IR light transmitted through each defective pixel are stored in the RAM 48 or the like.
[0109]
  The defect detection process described above is performed using R, G, B, and IR data that have undergone various corrections, so that only defective parts corresponding to scratches and foreign matters on photographic film can be detected reliably and accurately. In addition, it is possible to prevent erroneous detection of the range of the defective portion. Step 120 claims7This corresponds to the defect detection means described in (1).
[0110]
In the next step 122, a correction value for correcting each defect portion is calculated for each defect portion to be corrected detected by the defect portion detection process. First, the principle of defect repair will be described.
[0111]
As shown in FIG. 8B, the emulsion layer of the photographic film includes R, G, and B photosensitive layers, and the photographic film (negative film) on which the image has been recorded by exposure and developed. Film) has a C negative image formed on the R photosensitive layer, an M negative image formed on the G photosensitive layer, and a Y negative image formed on the B photosensitive layer. Of the visible light transmitted through the photographic film, the R light is attenuated (absorbed) in the R photosensitive layer by an attenuation amount corresponding to the transmission density of the C negative image, and the G negative image is absorbed in the G photosensitive layer. The B light is attenuated (absorbed) by an attenuation amount corresponding to the transmission density of the negative image of Y in the B photosensitive layer.
[0112]
Here, as shown in FIG. 8B as an example, when the back surface opposite to the emulsion surface is scratched, the ratio of light absorption in the R, G, B photosensitive layers to the transmitted light is as follows. The same as when there is no scratch. That is, in FIG. 8B, the amount of light incident on the photographic film is expressed as I.0, The amount of transmitted R light, G light, and B light when there is no scratch,0R, I0G, I0BThe amount of light incident on the emulsion layer through a straight line through the scratched part when the scratch is made is I1(I1<I0: I0-I1Is the amount of transmitted light of R light, G light, and B light when there is a flaw.1R, I1G, I1BThen, the relationship of the following formula (2) is established.
I0R/ I0≒ I1R/ I1  I0G/ I0≒ I1G/ I1  I0B/ I0≒ I1B/ I1      ... (2)
[0113]
Therefore, the defect portion corresponding to the scratched portion on the back surface changes only in luminance as compared with the case where there is no scratch, and the color information of the image recorded on the photographic film is stored. Therefore, the defect portion of the image represented by the image data can be corrected by applying the luminance adjustment method and adjusting the luminance of the defect portion area.
[0114]
On the other hand, when the emulsion surface is scratched as shown in FIG. 8C as an example, if the scratch is shallow, a part of each photosensitive layer is scraped, so that R, The ratio of light absorption in each of the photosensitive layers G and B varies from that in the case where there is no scratch. Further, if the scratches are very deep such that all the photosensitive layers are peeled off, light absorption in each photosensitive layer with respect to transmitted light does not occur. Therefore, in any case, the relationship of the expression (2) is not established.
[0115]
In this way, the defect portion corresponding to the scratched portion of the emulsion surface changes in brightness and color as compared with the case where there is no scratch regardless of the depth of the scratch. Since the color information of the image recorded in the image is also lost, it is difficult to correct the defective portion with high accuracy even if the luminance is adjusted. For this reason, a correction method (interpolation method) that determines the brightness and density of the defective portion by interpolation from information on the area around the defective portion is suitable for correcting the defective portion corresponding to the scratched portion of the emulsion surface. ing. In addition, since the brightness and the color of the defective portion caused by the foreign matter attached to the photographic film change as compared with the case where the foreign matter is not attached, when correcting the defective portion described above, The interpolation method is also suitable.
[0116]
In step 122, first, predetermined feature amounts for determining whether to correct each defect portion to be corrected by applying an interpolation method or applying a luminance adjustment method are calculated. In the present embodiment, as an example of the predetermined feature amount, a feature amount representing a correlation between changes in the amount of transmitted light of R light, G light, and B light in the defective portion is used.
[0117]
For example, when the back surface of a photographic film is scratched, as shown in FIG. 9 (A) as an example, the amount of transmitted light of R light, G light, and B light changes in substantially the same manner at the scratched portion. As shown, the correlation between the changes in the amount of transmitted light of R light, G light, and B light is high. On the other hand, when the emulsion surface of the photographic film is scratched, as shown in FIG. 9B as an example, the change in the amount of transmitted R light, G light, and B light at the scratched portion is not constant. , R light, G light, and B light have a low correlation of changes in the amount of transmitted light (the same applies when foreign matter is attached to the photographic film).
[0118]
FIG. 9 shows a typical case, and there are many cases where it is not clear which correction method should be applied, such as scratches on both sides of the photographic film. However, it is preferable to apply the luminance adjustment method if information about the color of the subject remains in the R, G, B image data, and it is preferable to apply the interpolation method when the information does not remain. Predetermined feature quantity (for example, a value obtained by integrating the difference between the differential values of the changes in the transmitted light amount of R light, G light, and B light) representing the correlation of the change in the transmitted light amount of R light, G light, and B light in the defective portion. Based on this, it is possible to appropriately determine the correction method to be applied for each defective portion.
[0119]
When each of the predetermined feature amounts described above is calculated for each defect part to be corrected, the setting value of the application range of both correction methods (a threshold value indicating the boundary of the application range of both correction methods) is fetched, and each defect part Are compared with the set values to determine whether to perform correction by applying an interpolation method or by applying a luminance adjustment method for each defective portion as a unit.
[0120]
Then, for the defective portion determined to be corrected by applying the interpolation method, the correction value is calculated by applying the interpolation method. That is, the brightness and color of the defect part to be corrected are newly calculated by interpolation from the brightness and color of the area around the defect part, and the values (R, G, and B) of the pixels in the defect part obtained by the interpolation calculation are calculated. The density value may be a value representing hue, lightness, or saturation), and D1 is the original value of each pixel, D2 is the correction level, and α is the correction value D3 of each pixel in the defective portion. Ask according to.
D3 = α · D1 + (1−α) D2 (3)
The above processing is performed for each defective portion determined to be corrected by applying the interpolation method, and a correction value for each defective portion is obtained.
[0121]
  In addition, for the defective portion determined to be corrected by applying the luminance adjustment method, the correction value is calculated by applying the luminance adjustment method. That is, the luminance correction amount of the defective portion is calculated based on the amount of change in the amount of transmitted IR light in the defect portion to be corrected, and the luminance value of each pixel in the defective portion corrected according to the luminance correction amount is L1, each pixel Let L2 be the original luminance value, and α be the current set value of the “defect portion correction degree”, and obtain the correction value (luminance value) L3 of each pixel in the defect portion according to equation (4).
L3 = α · L1 + (1−α) L2 (4)
The above processing is performed for each defective portion determined to be corrected by applying the brightness adjustment method, and a correction value for each defective portion is obtained. The above-mentioned step 122 is claimed.7This corresponds to the correction means described in (1).
[0122]
When the correction values are calculated for all the defect portions to be corrected, the process proceeds to step 124, and the correction value for each defect portion is changed to information indicating the position of the defect portion (for example, the defect pixel constituting each defect portion). Address) and the image processor 40, and the defect portion correction value determination process is terminated.
[0123]
  The image processor 40 receives the image data that has undergone the corrections in steps 102 to 118 in the defect portion correction value determination process (the correction may be performed by the image processor 40). On the other hand, the defect portion correction value determination process is performed by the control unit 42 to correct the defect portion in accordance with the correction value notified from the control unit 42 (specifically, the notified correction value of each defective pixel belonging to the defect portion). A defective portion correction process (replaced with a pixel value) is performed. Thereby, all the defective parts to be corrected are automatically corrected. Thus, the image processor 40 is also claimed.7This corresponds to the correction means described in (1).
[0124]
Further, the image processor 40 performs various image processing on the image data that has been subjected to the defect portion correction processing under the processing conditions determined by the setup calculation in the control unit 42, and causes the I / O controller 38 and the I / F circuit 54 to operate. Output to the printer 16. As a result, the defective portion selected as the correction target is erased from the image recorded by exposure on the photographic paper 68.
[0125]
In the above description, the example using the film scanner 12 configured to perform reading (detection of transmitted light amount) for each of the R, G, B, and IR wavelength ranges by the single area CCD 30 has been described. However, a film scanner having a configuration in which reading for each wavelength region is performed by two or more photoelectric conversion elements may be used. As an example, FIG. 10 shows a film scanner 72 having a configuration in which reading for each wavelength band is performed by different line sensors 70B, 70G, 70R, and 70IR.
[0126]
In this film scanner 72, the light emitted from the light source 20 is shaped into a long slit-shaped light beam along the width direction of the photographic film 26 by the light diffusion box 74, and is irradiated onto the photographic film 26 and transmitted through the photographic film 26. The light is incident on each of the line sensors 70B, 70G, 70R, and 70IR via the imaging lens 28. The light receiving surface of each line sensor is provided with a filter that transmits only the light in the wavelength range to be detected among the incident light, and the photographic film 26 is conveyed at a constant speed. Reading about the wavelength range (detection of the amount of transmitted light of each wavelength range) is performed.
[0127]
As in the case of the film scanner 72 described above, when reading with respect to each wavelength region is performed with a plurality of photoelectric conversion elements, each of the respective wavelength regions is obtained by reading due to the difference in the arrangement position of each photoelectric conversion element. Pixel shift occurs in image information. For example, in the film scanner 72, each reading position of the adjacent line sensors on the photographic film 26 is n times (n is an integer) the distance that the photographic film 26 is transported per reading cycle. If the line sensors are respectively arranged, pixel deviation does not occur if the reading timing of each line sensor is shifted by n cycles, but the interval between the reading positions is set to the one cycle due to, for example, an error in the mounting position of the line sensor. If it is a non-integer multiple of the hit film transport distance, the aforementioned pixel shift occurs.
[0128]
In such a case, the amount of misalignment with respect to the intended position of the reading position of each line sensor may be measured and stored in advance, and misalignment correction may be performed. This misalignment correction is performed by, for example, correcting the misalignment by the measured amount of misalignment in distortion aberration correction and lateral chromatic aberration correction in a direction parallel to the conveyance direction of the photographic film (for example, the x direction in FIG. 5A). This can be realized by correcting so that the positions of all the pixels move in the direction opposite to the direction. Thereby, the shift of the pixel position due to the difference in the arrangement position of the photoelectric conversion elements can be corrected.
[0129]
  The above-mentioned correction is claimed5The line sensors 70B, 70G, and 70R of the film scanner 72 are claimed in the claims.5The line sensor 70IR is included in the first photoelectric conversion element according to claim 1.5This corresponds to the second photoelectric conversion element described in 1).
[0130]
In addition, the interpolation method and the luminance adjustment method have been described above as an example of the defect portion correction method, but the present invention is not limited to this, and a so-called blurring method that blurs the defect portion by applying a low-pass filter or the like is applied. Also good.
[0131]
Moreover, although the structure which reads an image by photoelectrically converting the light which permeate | transmitted the photographic film was demonstrated above, it is not limited to this, The structure which reads an image by photoelectrically converting the light which reflected the photographic film May be adopted. Needless to say, the image recording material is not limited to a photographic film, and a photographic material other than the photographic film, plain paper, an OHP sheet, or the like may be used as the image recording material.
[0132]
Further, in the above description, an example in which R, G, B reading is performed during pre-scanning and R, G, B, IR reading is performed during fine scanning has been described. However, the present invention is not limited to this. It may be performed only at the time of canning, or may be performed at the time of pre-scanning and fine scanning.
[0133]
【The invention's effect】
  As explained aboveBookThe inventionVisible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting visible light transmitted or reflected through the image recording area, and light in a wavelength region including a part of the visible region is invisible. The difference between each image information attributed to the optical characteristics is visible to at least one of the invisible image information obtained by irradiating the image recording area as light and detecting the invisible light transmitted or reflected through the image recording area. Corrects the change in the amount of detected invisible light caused by light in the wavelength region including part of the wavelength being irradiated as invisible lightBecause I tried to,Lack ofIt has an excellent effect that it is possible to improve the correction accuracy of the recessed portion.
[0134]
  Also bookThe inventionVisible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected through the image recording area by the first detection means, and invisible light on the image recording area The image recording is performed as a difference between the image information caused by optical characteristics with respect to at least one of the invisible image information obtained by detecting the invisible light that has been irradiated and transmitted or reflected through the image recording area by the second detection unit. Corrects the difference in the amount of light detected by each detection means due to the wavelength dependence of the attenuation of the light transmitted through or reflected by the image recording material.Because I tried to,Lack ofIt has an excellent effect that it is possible to improve the correction accuracy of the recessed portion.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an image processing system according to an embodiment.
FIG. 2 is a perspective view showing a schematic configuration of a film scanner.
FIG. 3 is a diagram showing an example of spectral characteristics of light irradiated on a photographic film.
FIG. 4 is a flowchart showing the content of a defect portion correction value determination process.
5A is an xy coordinate system set for an image, and FIG. 5B is x for explaining distortion aberration correction and lateral chromatic aberration correction.PyPIt is a conceptual diagram which shows a coordinate system.
FIG. 6 is a diagram showing an example of the relationship between the wavelength of light transmitted through a photographic film and the degree of attenuation with respect to transmitted light.
7A shows an example of response characteristics of image data Q and unsharp mask image data QUS, FIG. 7B shows an example of response characteristics of image data (Q-QUS), and FIG. 7C shows image data Q and sharpness. It is a diagram which shows an example of the response characteristic of the image data QL after degree correction, respectively.
FIG. 8A is a conceptual diagram showing light transmission in a photographic film where there are no scratches and foreign matter, a scratched location, and a foreign matter location, and FIG. When the back surface is scratched, (C) is a conceptual diagram showing light transmission when the emulsion surface of the photographic film is scratched.
FIGS. 9A and 9B show examples of changes in the amount of transmitted R light, G light, B light, and IR light when the back surface is scratched, and FIG. 9B is when the emulsion surface is scratched. FIG.
FIG. 10 is a schematic configuration diagram of a film scanner according to another embodiment of the present invention.
[Explanation of symbols]
12 Film scanner
14 Image processing device
20 Light source
23 Filter unit
26 photographic film
28 Imaging lens
30 area CCD
40 Image processor
42 Control unit
72 Information storage media

Claims (11)

画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として前記画像記録領域に照射し前記画像記録領域を透過又は反射した前記非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段と、
前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正する補正手段と、
を含む画像処理装置。
Visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and a wavelength partially including the visible area acquiring for acquiring invisible image information obtained by detecting the non-visible light transmitted through or reflected by the image recording area shines light of the said image recording area light as invisible light range by the second detecting means Means,
As at least one of the visible image information and the invisible image information , light in a wavelength region including a part of the visible region is irradiated as invisible light as a difference between the image information due to optical characteristics. Correction means for correcting the change in the detected light amount of the invisible light by the second detection means ,
An image processing apparatus.
画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、前記画像記録領域に非可視光を照射し前記画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段と、
前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、前記各検出手段による検出光量の差異を補正する補正手段と、
を含む画像処理装置。
Visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and invisible to the image recording area An acquisition means for acquiring invisible image information obtained by irradiating light and detecting the invisible light transmitted or reflected by the image recording area by the second detection means;
As a difference between the image information due to optical characteristics with respect to at least one of the visible image information and the non-visible image information, the wavelength dependence of the attenuation by the image recording material of the light transmitted or reflected by the image recording material Correction means for correcting the difference in the amount of light detected by each of the detection means due to
An image processing apparatus.
前記取得手段は、前記可視画像情報として、画像記録領域を透過又は反射した可視光を前記第1検出手段が複数の波長域毎に各々検出することで得られた前記複数の波長域毎の可視画像情報を各々取得し、
前記補正手段は、前記複数の波長域毎の可視画像情報及び前記非可視画像情報に対し、光学特性に起因する前記各画像情報相互の差異を補正する
ことを特徴とする請求項1又は請求項記載の画像処理装置。
The acquisition means is the visible image for each of the plurality of wavelength ranges obtained by the first detection means detecting the visible light transmitted or reflected through the image recording area for each of the plurality of wavelength ranges as the visible image information. Acquire each image information,
The said correction | amendment means correct | amends the difference between each said image information resulting from an optical characteristic with respect to the visible image information and the said invisible image information for every said several wavelength range. 2. The image processing apparatus according to 2 .
前記第1検出手段及び前記第2検出手段は、前記画像記録材料の画像記録領域を透過又は反射しかつ結像レンズによって結像された可視光又は非可視光を検出し、
前記補正手段は、前記各画像情報の差異として、前記結像レンズの倍率色収差又は歪曲収差に起因する画素位置のずれも補正する
ことを特徴とする請求項1又は請求項記載の画像処理装置。
The first detection means and the second detection means detect visible light or invisible light that is transmitted or reflected through an image recording region of the image recording material and imaged by an imaging lens,
Said correction means, wherein a difference in the image information, the image processing apparatus according to claim 1 or claim 2, wherein also the deviation of the pixel position due to magnification chromatic aberration or distortion aberration and corrects the imaging lens .
前記第1検出手段は第1の光電変換素子によって可視光を検出すると共に、前記第2の検出手段は前記第1の光電変換素子と異なる第2の光電変換素子によって非可視光を検出し、
前記補正手段は、前記各画像情報の差異として、前記第1の光電変換素子と前記第2の光電変換素子の配置位置の相違に起因する画素位置のずれも補正する
ことを特徴とする請求項1又は請求項記載の画像処理装置。
The first detection means detects visible light with a first photoelectric conversion element, and the second detection means detects invisible light with a second photoelectric conversion element different from the first photoelectric conversion element,
The correction means also corrects a shift in pixel position due to a difference in arrangement position between the first photoelectric conversion element and the second photoelectric conversion element as a difference between the image information. The image processing apparatus according to claim 1 or 2 .
前記第1検出手段及び前記第2の検出手段は、前記画像記録材料の画像記録領域を透過又は反射しかつ結像レンズによって結像された可視光又は非可視光を検出し、
前記補正手段は、前記各画像情報の差異として、前記結像レンズの焦点距離の波長依存性に起因する、各画像情報が表す画像の鮮鋭度の差異も補正する
ことを特徴とする請求項1又は請求項記載の画像処理装置。
The first detection means and the second detection means detect visible light or invisible light that is transmitted or reflected through an image recording region of the image recording material and imaged by an imaging lens,
The correction means also corrects a difference in sharpness of an image represented by each image information due to a wavelength dependency of a focal length of the imaging lens as a difference between the image information. Alternatively, the image processing apparatus according to claim 2 .
前記補正手段による補正を経た可視画像情報及び非可視画像情報に基づいて、前記可視画像情報が表す画像の欠陥部を検出する欠陥部検出手段と、
前記可視画像情報に対し、前記検出手段によって検出された欠陥部を修正する修正手段と、
を更に備えたことを特徴とする請求項1又は請求項2記載の画像処理装置。
Based on the visible image information and non-visible image information that have undergone correction by the correction means, a defect portion detection means that detects a defect portion of the image represented by the visible image information;
Correction means for correcting the defective portion detected by the detection means for the visible image information;
The image processing apparatus according to claim 1 or claim 2, wherein further comprising a.
画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透The image recording area of the image recording material is irradiated with visible light to transmit the image recording area. 過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として前記画像記録領域に照射し前記画像記録領域を透過又は反射した前記非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得し、Visible image information obtained by detecting excessive or reflected visible light by the first detection means, and light in a wavelength region partially including the visible region is irradiated to the image recording region as the invisible light, and the image recording is performed. Obtaining invisible image information obtained by detecting the invisible light transmitted or reflected by the region by the second detection means;
前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正するAs at least one of the visible image information and the invisible image information, light in a wavelength region including a part of the visible region is irradiated as invisible light as a difference between the image information due to optical characteristics. Correcting the change in the amount of invisible light detected by the second detection means
画像処理方法。Image processing method.
画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び前記画像記録領域に非可視光を照射し前記画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得し、
前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、前記各検出手段による検出光量の差異を補正する
画像処理方法。
Visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and invisible light on the image recording area To obtain invisible image information obtained by detecting the invisible light transmitted or reflected by the image recording area by the second detection means,
As a difference between the image information due to optical characteristics with respect to at least one of the visible image information and the non-visible image information, the wavelength dependence of the attenuation by the image recording material of the light transmitted or reflected by the image recording material An image processing method for correcting a difference in the amount of light detected by each of the detection means due to the above .
コンピュータを、
画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び、可視域を一部含む波長域の光を非可視光として前記画像記録領域に照射し前記画像記録領域を透過又は反射した前記非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段、
及び、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記可視域を一部含む波長域の光が非可視光として照射されることに起因する第2検出手段による非可視光の検出光量の変化を補正する補正手段
として機能させるためのプログラムが記録された記録媒体。
Computer
Visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and a wavelength partially including the visible area acquiring for acquiring invisible image information obtained by detecting the non-visible light transmitted through or reflected by the image recording area shines light of the said image recording area light as invisible light range by the second detecting means means,
In addition, at least one of the visible image information and the invisible image information is irradiated with light in a wavelength region including part of the visible region as invisible light as a difference between the image information due to optical characteristics. Correction means for correcting a change in the amount of invisible light detected by the second detection means
A recording medium on which a program for functioning as a recording medium is recorded.
コンピュータを、
画像記録材料の画像記録領域に可視光を照射し前記画像記録領域を透過又は反射した可視光を第1検出手段によって検出することで得られた可視画像情報、及び前記画像記録領域に非可視光を照射し前記画像記録領域を透過又は反射した非可視光を第2検出手段によって検出することで得られた非可視画像情報を取得する取得手段、
及び、前記可視画像情報及び前記非可視画像情報の少なくとも一方に対し、光学特性に起因する前記各画像情報の差異として、前記画像記録材料を透過又は反射する光の画像記録材料による減衰度の波長依存性に起因する、前記各検出手段による検出光量の差異を補正する補正手段
として機能させるためのプログラムが記録された記録媒体。
Computer
Visible image information obtained by irradiating the image recording area of the image recording material with visible light and detecting the visible light transmitted or reflected by the image recording area by the first detection means, and invisible light on the image recording area Acquisition means for acquiring non-visible image information obtained by detecting by the second detection means non-visible light that is transmitted through or reflected by the image recording area,
The wavelength of the attenuation by the image recording material of light transmitted or reflected by the image recording material as a difference between the image information due to optical characteristics with respect to at least one of the visible image information and the invisible image information Correction means for correcting the difference in the amount of light detected by each of the detection means due to dependency
A recording medium on which a program for functioning as a recording medium is recorded.
JP20622499A 1999-07-21 1999-07-21 Image processing apparatus, method, and recording medium Expired - Fee Related JP3939466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20622499A JP3939466B2 (en) 1999-07-21 1999-07-21 Image processing apparatus, method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20622499A JP3939466B2 (en) 1999-07-21 1999-07-21 Image processing apparatus, method, and recording medium

Publications (2)

Publication Number Publication Date
JP2001036749A JP2001036749A (en) 2001-02-09
JP3939466B2 true JP3939466B2 (en) 2007-07-04

Family

ID=16519830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20622499A Expired - Fee Related JP3939466B2 (en) 1999-07-21 1999-07-21 Image processing apparatus, method, and recording medium

Country Status (1)

Country Link
JP (1) JP3939466B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4532765B2 (en) * 2001-03-13 2010-08-25 キヤノン株式会社 Image processing apparatus and image processing program
JP4630477B2 (en) * 2001-03-15 2011-02-09 キヤノン株式会社 Image signal processing method
JP2003152970A (en) 2001-08-28 2003-05-23 Fuji Photo Film Co Ltd Image reading device
JP4770154B2 (en) * 2004-11-08 2011-09-14 ソニー株式会社 Image processing apparatus, image processing method, and computer program
JP5055588B2 (en) 2007-02-07 2012-10-24 株式会社ニコン Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2001036749A (en) 2001-02-09

Similar Documents

Publication Publication Date Title
JP4005277B2 (en) Image processing apparatus, method, and recording medium
US6751349B2 (en) Image processing system
JP4056670B2 (en) Image processing method
US6747757B1 (en) Image processing method and apparatus
US7327877B2 (en) Image processing apparatus and image processing method
US7257270B2 (en) Image processing device and method, and recording medium
US6313902B1 (en) Image processing method and apparatus
US20050141046A1 (en) Image reading apparatus, image recording medium and image forming apparatus
US20050029352A1 (en) System and method for automatic correction of illumination noise caused by ambient light
US6618512B1 (en) Image reading apparatus
US7113619B1 (en) Image reading method, image reading apparatus and method of discriminating defect of image data
US20030002735A1 (en) Image processing method and image processing apparatus
JP3939466B2 (en) Image processing apparatus, method, and recording medium
US6339466B1 (en) Image processing apparatus
US6583896B1 (en) Image reading apparatus and image reading method
JPH10155091A (en) Image recorder
JP2001024884A (en) Device and method for processing picture and recording medium
JP2001036811A (en) Image reader and its method
JP3559451B2 (en) Image processing method and image processing apparatus
JP3576812B2 (en) Image processing apparatus and image processing method
JP3775312B2 (en) Image processing method, image processing program, and computer-readable recording medium recording the program
JP2001024883A (en) Picture processor, method for controlling it, and recording medium
JP2003110823A (en) Image reader
JP2001024895A (en) Picture processor
JP2003110801A (en) Image reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060905

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070328

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120406

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees