JP2001024887A - Method for discriminating similar scene - Google Patents

Method for discriminating similar scene

Info

Publication number
JP2001024887A
JP2001024887A JP11196679A JP19667999A JP2001024887A JP 2001024887 A JP2001024887 A JP 2001024887A JP 11196679 A JP11196679 A JP 11196679A JP 19667999 A JP19667999 A JP 19667999A JP 2001024887 A JP2001024887 A JP 2001024887A
Authority
JP
Japan
Prior art keywords
image
film
density
image data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11196679A
Other languages
Japanese (ja)
Inventor
Hiroyasu Yamamoto
容靖 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11196679A priority Critical patent/JP2001024887A/en
Publication of JP2001024887A publication Critical patent/JP2001024887A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method by which a similar scene can be discriminated with accuracy. SOLUTION: A line CCD scanner 11 reads a DX code and picture data from a photographic film. A picture processor 12 discriminates a type of the film from the DX code and performs nonlinear correction on the picture data based on discriminated result. During a course of the nonlinear correction, the picture data are converted so that the data may become linear with respect to luminance of an object in a whole exposure area by correcting nonlinearity of the film. Then density histograms are found at every film picture from the corrected picture data and similarity is calculated through standardization and comparison of the histograms. Therefore, a similar scene can be discriminated appropriately without being affected by exposure conditions, such as under- exposure, over-exposure, at photographing time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、類似シーンの判定
方法に関し、特に画像読取手段により写真感光材料に記
録されている複数の画像を読み取り、この読み取った画
像データに基づき画像処理条件を決定する画像処理装置
の類似シーンの判定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining a similar scene, and more particularly to reading a plurality of images recorded on a photographic material by image reading means and determining image processing conditions based on the read image data. The present invention relates to a similar scene determination method of an image processing apparatus.

【0002】[0002]

【従来の技術】ラボ機器で写真フイルムからプリントを
作成する際に、同一フイルム内の類似シーンのプリント
の仕上がりを揃えるために、類似シーンの判定を行い、
その類似度によって仕上がりを調節するパラメータを補
正する方法が一般的に知られている。類似の判定方法と
しては、画像データから画像特徴量を算出し、この画像
特徴量から同じようなシーンコマを見いだす方法(特開
昭54−26729号公報、特開昭56−153334
号公報)や、ヒストグラムの比較によって行う方法など
がある。
2. Description of the Related Art When a print is made from a photographic film using a lab device, a similar scene is determined in order to make prints of similar scenes in the same film uniform.
A method of correcting a parameter for adjusting the finish based on the similarity is generally known. As a similar determination method, a method of calculating an image feature amount from image data and finding a similar scene frame from the image feature amount (JP-A-54-26729, JP-A-56-153334).
Publication) and a method of comparing histograms.

【0003】[0003]

【発明が解決しようとする課題】特性値の比較で類似シ
ーンの判定を行う従来方法では、写真フイルムの非線形
性を考慮していないため、写真フイルムの特性曲線にお
いて、その足や肩の部分に偏った画像の場合に、適正な
判定が行えないという問題がある。例えば、類似シーン
をヒストグラムの比較によって行う方法において、適正
露光で撮影した複数のシーンを比較する場合と、アンダ
ー露光で撮影した複数のシーンを比較する場合(適正露
光と同一の複数シーン)とでは、類似判定の結果が異な
ってしまう。これはアンダー露光の場合には階調がつぶ
れてしまうからである。また、同一シーンを露出条件を
変えて撮影した場合、適正露光、アンダー露光、オーバ
ー露光では写真フイルムの特性により、同一シーンと判
断することが難しい。
In the conventional method of judging similar scenes by comparing characteristic values, since the non-linearity of the photographic film is not taken into consideration, the characteristic curve of the photographic film has a characteristic curve corresponding to the foot or shoulder. In the case of a biased image, there is a problem that an appropriate determination cannot be made. For example, in a method of comparing similar scenes by comparing histograms, a case where a plurality of scenes photographed with proper exposure are compared with a case where a plurality of scenes photographed with underexposure are compared (a plurality of scenes identical to the proper exposure) is compared. , The result of the similarity determination will be different. This is because the gradation is destroyed in the case of under exposure. Further, when the same scene is photographed under different exposure conditions, it is difficult to determine the same scene by proper exposure, underexposure, and overexposure due to the characteristics of the photographic film.

【0004】本発明は上記課題を解決するためのもので
あり、アンダー露光やオーバー露光のコマであっても適
正に類似シーンか否かを判定することができるようにし
た類似シーンの判定方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and provides a similar scene judging method capable of properly judging whether a scene is a similar scene even with underexposed or overexposed frames. The purpose is to provide.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の類似シーンの判定方法では、各画像
毎に写真感光材料の非線形性を補正する変換処理を行
い、この非線形性補正処理後の画像データに基づき画像
特徴量を算出し、この画像特徴量により複数の画像の類
似度を算出している。
According to a first aspect of the present invention, there is provided a method for judging a similar scene, comprising the steps of: performing a conversion process for correcting nonlinearity of a photographic material for each image; An image feature amount is calculated based on the image data after the correction processing, and a similarity between a plurality of images is calculated based on the image feature amount.

【0006】なお、前記写真感光材料の非線形性を補正
する変換処理は、写真感光材料の種類毎に記憶している
変換テーブルを用いることが好ましい。また、前記写真
感光材料の非線形性を補正する変換テーブルはシアン、
マゼンタ、イエローの各色毎に独立に設定することが好
ましい。また、各色で共通したものを用いてもよい。ま
た、前記画像特徴量は濃度ヒストグラムであることが好
ましい。
In the conversion processing for correcting the nonlinearity of the photographic material, it is preferable to use a conversion table stored for each type of the photographic material. The conversion table for correcting the non-linearity of the photographic material is cyan,
It is preferable to set independently for each color of magenta and yellow. Further, a common color may be used for each color. Preferably, the image feature amount is a density histogram.

【0007】[0007]

【発明の実施の形態】[デジタルラボシステムの構成]
図1は、本発明を実施したデジタルラボシステムの概略
構成図である。このラボシステム10は、ラインCCD
スキャナ11、画像処理装置12、レーザプリンタ1
3、及びプロセサ14を含んで構成されている。そし
て、ラインCCDスキャナ11及び画像処理装置12は
入力機16として一体化されており、レーザプリンタ1
3及びプロセサ14は出力機17として一体化されてい
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [Configuration of Digital Laboratory System]
FIG. 1 is a schematic configuration diagram of a digital laboratory system embodying the present invention. This lab system 10 is a line CCD
Scanner 11, image processing device 12, laser printer 1
3 and a processor 14. The line CCD scanner 11 and the image processing device 12 are integrated as an input device 16, and the laser printer 1
3 and the processor 14 are integrated as an output device 17.

【0008】ラインCCDスキャナ11は、写真フイル
ムに記録されているフイルム画像を読み取るものであ
り、例えば135タイプの写真フイルム、110タイプ
の写真フイルム、IX240タイプの写真フイルム、及
びブローニータイプの写真フイルムなどのフイルム画像
が読み取り可能である。このラインCCDスキャナ11
は、フイルム画像を3ラインカラーCCDで読み取り、
R、G、Bの画像データを出力する。
The line CCD scanner 11 reads a film image recorded on a photographic film, such as a 135-type photographic film, a 110-type photographic film, an IX240-type photographic film, and a brownie-type photographic film. Can be read. This line CCD scanner 11
Reads the film image with a 3-line color CCD,
R, G, and B image data are output.

【0009】画像処理装置12には、ラインCCDスキ
ャナ11から出力された画像データ(スキャンデータ)
が入力される。また、メモリカード等の記憶媒体18a
や他の情報処理機器18b等の外部装置18を介して、
デジタルカメラでの撮影によって得られた画像データ、
フイルム画像以外の例えば反射原稿をスキャナで読み取
ることで得られた画像データ、コンピュータで生成され
た画像データ(以下、これらをファイル画像データとい
う)が外部から入力される。
The image processing device 12 stores image data (scan data) output from the line CCD scanner 11.
Is entered. Also, a storage medium 18a such as a memory card
And an external device 18 such as another information processing device 18b,
Image data obtained by shooting with a digital camera,
Image data other than a film image, for example, obtained by reading a reflection original with a scanner, and image data generated by a computer (hereinafter, referred to as file image data) are input from outside.

【0010】レーザプリンタ13はR、G、Bのレーザ
光源と変調部とを備えている。そして、画像処理装置1
2から入力された記録用画像データに応じてレーザ光を
変調し、この変調したレーザ光を印画紙に照射し、走査
露光によって印画紙に画像を記録する。また、プロセサ
14は、走査露光済みの印画紙に対し、発色現像、漂白
定着、水洗、乾燥の各処理を施す。これにより印画紙上
に画像が形成される。
The laser printer 13 includes R, G, and B laser light sources and a modulator. Then, the image processing apparatus 1
The laser beam is modulated in accordance with the recording image data input from step 2, the modulated laser beam is irradiated on the photographic paper, and the image is recorded on the photographic paper by scanning exposure. Further, the processor 14 performs each process of color development, bleach-fix, washing with water, and drying on the photographic paper after scanning exposure. As a result, an image is formed on the printing paper.

【0011】[画像処理装置12の構成]次に、画像処
理装置12の構成について説明する。図2に示すよう
に、画像処理装置12は、ラインスキャナ補正部20A
〜20Cを備えている。このラインスキャナ補正部20
A〜20Cは、ラインCCDスキャナ11から入力され
るR、G、Bのデータに対応して設けられている。ライ
ンスキャナ補正部20A〜20Cは、互いに同一の構成
であり、以下ではこれらを区別せずに、単にラインスキ
ャナ補正部20と総称する。
[Configuration of Image Processing Apparatus 12] Next, the configuration of the image processing apparatus 12 will be described. As shown in FIG. 2, the image processing apparatus 12 includes a line scanner correction unit 20A.
~ 20C. This line scanner correction unit 20
A to 20C are provided corresponding to R, G, and B data input from the line CCD scanner 11. The line scanner correction units 20A to 20C have the same configuration as each other, and are hereinafter simply referred to as the line scanner correction unit 20 without distinguishing them.

【0012】ラインスキャナ補正部20は、暗補正、濃
度変換、シェーディング補正、欠陥画素補正などの各処
理を順に行う。暗補正では、ラインCCDスキャナ11
からのスキャンデータから各画素毎に対応するセルの暗
出力レベルを減じる。濃度変換では、暗補正を行ったデ
ータを対数変換して写真フイルム18の濃度を表すデー
タにする。シェーディング補正では、写真フイルム18
を照明する光の光量むらに応じて前記濃度変換を行った
データを画素単位で補正する。欠陥画素補正では、シェ
ーディング補正を行ったデータのうち、入射光の光量に
正確に対応した信号が出力されないセル(欠陥画素)の
データを周囲の画素データから補間して新たに生成す
る。
The line scanner correction unit 20 sequentially performs processes such as dark correction, density conversion, shading correction, and defective pixel correction. In the dark correction, the line CCD scanner 11
, The dark output level of the cell corresponding to each pixel is subtracted from the scan data from. In the density conversion, the data subjected to the dark correction is logarithmically converted into data representing the density of the photographic film 18. For shading correction, the photo film 18
The data on which the density conversion has been performed is corrected in pixel units according to the unevenness in the light amount of the light illuminating. In the defective pixel correction, among the data subjected to the shading correction, data of a cell (defective pixel) for which a signal corresponding to the amount of incident light is not output is interpolated from surrounding pixel data and newly generated.

【0013】ラインスキャナ補正部20の出力はセレク
タ21を介して、入出力コントローラ22、イメージプ
ロセサ部23A,23Bに選択的に入力される。また、
セレクタ21の入力端には入出力コントローラ22のデ
ータ出力端にも接続されており、入出力コントローラ2
2からは、外部から入力されたファイル画像データがセ
レクタ21に入力される。
The output of the line scanner correction unit 20 is selectively input to an input / output controller 22 and image processors 23A and 23B via a selector 21. Also,
The input terminal of the selector 21 is also connected to the data output terminal of the input / output controller 22.
2, the file image data input from the outside is input to the selector 21.

【0014】画像処理の最適な処理条件は、画像処理後
の画像データを、レーザプリンタ13における印画紙の
画像の記録に用いるのか、ディスプレイ43等の表示手
段への表示に用いるのか、情報記録媒体に格納するのか
等によっても変化する。このため、画像処理装置12に
は2つのイメージプロセサ部23A、23Bが設けられ
ている。そして、例えば、画像データを印画紙への画像
の記録に用いると共に外部へ出力する等の場合には、後
に説明するセットアップ演算部30Aは各々の用途毎に
セットアップ演算を行って各用途毎に最適な処理条件を
各々決定し、イメージプロセサ部23A、23Bへ出力
する。これにより、イメージプロセサ部23A、23B
では、同一のファインスキャン画像データに対して、互
いに異なる画像処理が行われる。
The optimum processing conditions for the image processing are as follows: whether the image data after the image processing is used for recording an image of photographic paper on the laser printer 13 or for displaying on a display means such as the display 43; Also changes depending on whether or not they are stored. For this purpose, the image processing apparatus 12 is provided with two image processors 23A and 23B. For example, in a case where the image data is used for recording an image on photographic paper and output to the outside, etc., a setup calculation unit 30A described later performs a setup calculation for each application and optimizes the application for each application. Are determined and output to the image processors 23A and 23B. Thereby, the image processor units 23A and 23B
In, different image processing is performed on the same fine scan image data.

【0015】イメージプロセサ部23Aは、メモリコン
トローラ24、イメージプロセサ25、3個のフレーム
メモリ26A,26B,26Cを備えている。フレーム
メモリ26A〜26Cは各々1フレーム分以上のフイル
ム画像の画像データを記憶可能な容量を有している。そ
して、セレクタ21から入力された画像データは、メモ
リコントローラ24により3個のフレームメモリ26A
〜26Cのいずれかに記憶される。なお、イメージプロ
セサ部23Bもイメージプロセサ23Aと同じに構成さ
れている。
The image processor 23A includes a memory controller 24, an image processor 25, and three frame memories 26A, 26B, 26C. Each of the frame memories 26A to 26C has a capacity capable of storing image data of one or more frame images. The image data input from the selector 21 is transferred to the three frame memories 26A by the memory controller 24.
To 26C. Note that the image processor unit 23B has the same configuration as the image processor 23A.

【0016】イメージプロセサ25は、図3に示すよう
に、第1の画像処理部25A、オフセット補正部25
B、非線形補正部25C、画像データ規格化部25D、
第2の画像処理部25Eを順に接続して構成されてい
る。このイメージプロセサ25は、フレームメモリ26
(図4ではファインスキャンメモリ26と表記)に記憶
された画像データを取り込み、オートセットアップエン
ジン30によって各画像毎に決定された処理条件にした
がって種々の画像処理を行う。
As shown in FIG. 3, the image processor 25 includes a first image processing unit 25A and an offset correction unit 25.
B, non-linear correction section 25C, image data normalization section 25D,
The second image processing unit 25E is sequentially connected. This image processor 25 includes a frame memory 26
The image data stored in the fine scan memory 26 (shown in FIG. 4) is fetched, and various image processing is performed by the auto setup engine 30 according to the processing conditions determined for each image.

【0017】前記第1の画像処理部25A及び第2の画
像処理部25Eのいずれかで実行される画像処理として
は、例えば画像の拡大縮小、階調変換、濃度補正、色変
換、ハイパートーン処理、ハイパーシャープネス処理な
どの出力画像の画質向上のための画像処理(標準画像処
理)が挙げられる。ハイパートーン処理では、画像の超
低周波輝度成分の階調を圧縮する。ハイパーシャープネ
ス処理では粒状を抑制しながら、シャープネスを強調す
る。
The image processing executed by either the first image processing section 25A or the second image processing section 25E includes, for example, image enlargement / reduction, gradation conversion, density correction, color conversion, and hypertone processing. And image processing (standard image processing) for improving the image quality of an output image such as hyper sharpness processing. In the hypertone processing, the gradation of an ultra-low frequency luminance component of an image is compressed. In the hyper sharpness processing, sharpness is enhanced while suppressing graininess.

【0018】図2に示すように、イメージプロセサ25
は入出力コントローラ22に接続されている。そして、
画像処理を行った画像データは、フレームメモリ26に
一旦記憶された後に、所定のタイミングで入出力コント
ローラ22へ出力される。
As shown in FIG. 2, the image processor 25
Are connected to the input / output controller 22. And
The image data subjected to the image processing is temporarily stored in the frame memory 26 and then output to the input / output controller 22 at a predetermined timing.

【0019】本実施形態では、個々のフイルム画像に対
して、ラインCCDスキャナ11において異なる解像度
で2回の読み取りを行う。1回目の比較的に低解像度で
の読み取り(以下、プレスキャンという)では、フイル
ム画像の濃度が非常に低い場合(例えばネガフイルムに
おける露光アンダのネガ画像)にも、ラインCCDでの
蓄積電荷の飽和が生じないように決定した読取条件(写
真フイルムに照射する光のR、G、Bの各波長毎の光
量、ラインCCDの電荷蓄積時間)で写真フイルムの全
面の読み取りが行われる。このプレスキャンによって得
られたデータ(プレスキャンデータ)は、セレクタ21
から入出力コントローラ22へ出力される。
In the present embodiment, each film image is read twice by the line CCD scanner 11 at different resolutions. In the first reading at a relatively low resolution (hereinafter, referred to as pre-scan), even when the density of the film image is very low (for example, a negative image of an exposure under film in a negative film), the charge accumulated in the line CCD is reduced. The entire surface of the photographic film is read under the reading conditions determined so as not to cause saturation (the light amounts of the R, G, and B wavelengths of light applied to the photographic film, and the charge accumulation time of the line CCD). Data (pre-scan data) obtained by this pre-scan is supplied to the selector 21.
To the input / output controller 22.

【0020】入出力コントローラ22にはオートセット
アップエンジン30が接続されている。オートセットア
ップエンジン30は、CPU31、RAM32、ROM
33、入出力ポート34を備え、これらがバス35を介
して互いに接続されて構成されている。
An automatic setup engine 30 is connected to the input / output controller 22. The auto setup engine 30 includes a CPU 31, a RAM 32, and a ROM.
33, and an input / output port 34, which are connected to each other via a bus 35.

【0021】入出力コントローラ22から出力されたプ
レスキャンデータは、図3に示すプレスキャンメモリ3
6に一旦記憶された後に、オートセットアップエンジン
30におけるセットアップ演算処理、及びパーソナルコ
ンピュータ(パソコン)40けるシミュレーション画像
表示処理に供せられる。前記プレスキャンメモリ36と
しては、実際にはオートセットアップエンジン30のR
AM32、又はパソコン40のメモリ42が使用され
る。
The pre-scan data output from the input / output controller 22 is stored in the pre-scan memory 3 shown in FIG.
After being temporarily stored in the memory 6, it is subjected to setup calculation processing in the auto setup engine 30 and simulation image display processing in the personal computer (personal computer) 40. As the pre-scan memory 36, the R of the auto setup engine 30 is actually used.
The AM 32 or the memory 42 of the personal computer 40 is used.

【0022】[セットアップ演算処理]図3は、オート
セットアップエンジン30のCPU31によって実現さ
れる各種機能のうち、セットアップ演算処理を行う機能
をセットアップ演算部30Aとして示している。このセ
ットアップ演算部30Aは、以下のようにしてセットア
ップ演算処理を行う。先ず、セットアップ演算部30A
は、入出力コントローラ22から入力されたプレスキャ
ンデータに基づいてフイルム画像のコマ位置を判定し、
写真フイルム上のフイルム画像記録領域に対応するデー
タ(プレスキャン画像データ)を抽出する。また、プレ
スキャン画像データに基づいて、フイルム画像のサイズ
を判定するとともに、濃度等の画像特徴量を演算し、高
解像度での再度の読み取り(ファインスキャン)を行う
際の読取条件を決定する。
[Setup Operation Processing] FIG. 3 shows, among various functions realized by the CPU 31 of the auto setup engine 30, a function of performing a setup operation processing as a setup operation section 30A. The setup calculation unit 30A performs a setup calculation process as follows. First, the setup operation unit 30A
Determines the frame position of the film image based on the pre-scan data input from the input / output controller 22,
Data (pre-scan image data) corresponding to the film image recording area on the photographic film is extracted. Further, based on the pre-scanned image data, the size of the film image is determined, and the image feature amount such as the density is calculated to determine the reading conditions for performing high-resolution re-reading (fine scan).

【0023】また、セットアップ演算部30Aは、複数
コマ分のフイルム画像のプレスキャン画像データに基づ
いて、ラインCCDスキャナ11がファインスキャンを
行うことによって得られる画像データ(ファインスキャ
ン画像データ)に対する画像処理の処理条件を演算によ
り自動的に決定し、決定した処理条件をイメージプロセ
サ部23Aのイメージプロセサ25に出力する。
The setup calculation section 30A performs image processing on image data (fine scan image data) obtained by performing fine scan by the line CCD scanner 11 based on pre-scan image data of a plurality of frames of film images. Are automatically determined by calculation, and the determined processing conditions are output to the image processor 25 of the image processor unit 23A.

【0024】この画像処理の条件の決定に際し、本発明
の類似シーンの判定処理により、類似のシーンを撮影し
た複数のフイルム画像があるか否かを判定し、類似のシ
ーンを撮影した複数のフイルム画像が合った場合には、
これらのフイルム画像に対する画像処理の処理条件が同
一又は近似するように決定する。
In determining the conditions for the image processing, it is determined by the similar scene determination processing of the present invention whether or not there are a plurality of film images capturing similar scenes, and a plurality of film images capturing similar scenes are determined. If the image matches,
The processing conditions of the image processing for these film images are determined so as to be the same or similar.

【0025】なお、類似シーンの判定処理の前に、写真
フイルムの非線形性を補正する変換処理を行う。この非
線形性の補正処理により、写真フイルムの特性曲線にお
いて、その足や肩の部分に偏った画像がある場合でも、
類似度判定が適正に行えるようにする。
Before the similar scene determination process, a conversion process for correcting the non-linearity of the photo film is performed. Due to this non-linearity correction process, even if there is an image biased on the foot or shoulder in the characteristic curve of the photo film,
The similarity determination can be appropriately performed.

【0026】[非線形性の補正処理]オートセットアッ
プエンジン30のROM33には、写真フイルムの露光
量−発色濃度特性に応じて定められた特性データFilmDa
taj (d) が記憶されている。なお、dは濃度を表し、j
はR,G,Bの何れかを表す。この特性データFilmData
j (d) は、フイルム画像の画像データを変換するための
非線形補正の変換条件を表しており、例として図4
(A)に示すような変換特性を有している。この変換に
よって、写真フイルムに記憶されたフイルム画像の画像
データが表す濃度値が、仮想写真フイルムに、前記フイ
ルム画像と同一の被写体を露光記録し現像処理を行うこ
とで得られる仮想フイルム画像の仮想画像データが表す
濃度値とほぼ等しくなるようにされる。このときの仮想
写真フイルムは、写真フイルムのR、G、B毎の露光量
(logH) −発色濃度(d)特性の線形部を前記特性が非
線形となる露光量域まで各々延長したに等しいR、G、
Bの露光量−発色濃度特性を有するとした仮想の写真フ
イルムである。
[Nonlinearity Correction Processing] The ROM 33 of the auto setup engine 30 stores characteristic data FilmDa determined in accordance with the exposure-color density characteristics of the photographic film.
ta j (d) is stored. Note that d represents the density and j
Represents any of R, G, and B. This characteristic data FilmData
j (d) represents the conversion condition of the non-linear correction for converting the image data of the film image.
It has a conversion characteristic as shown in FIG. By this conversion, the density value represented by the image data of the film image stored in the photographic film is converted to the virtual value of the virtual film image obtained by exposing and recording the same subject as the film image on the virtual photographic film and performing development processing. The density value is set to be substantially equal to the density value represented by the image data. The virtual photo film at this time is the exposure amount for each of R, G, and B of the photo film.
(logH) -R, G, and R, respectively, equal to the linear portion of the color density (d) characteristic extended to the exposure region where the characteristic becomes non-linear.
5 is a virtual photographic film having the exposure amount-coloring density characteristic of B.

【0027】特性データFilmDataj (d) は、例えば以下
のようにして定めることができる。写真フイルムの一種
であるネガフイルムの露光量−発色濃度特性は、例とし
て図5(A)に示すように、ノーマル露光に相当する標
準的な露光領域では露光量の変化に対して発色濃度が線
形に変化(正比例)しているものの、アンダ露光に相当
する露光量域及びオーバー露光に相当する露光領域で
は、前記標準的な露光域から離れるにしたがってガンマ
(露光量の変化に対する発色濃度の変化の傾き)が徐々
に小さくなり、露光量の変化に対して発色濃度が非線形
に変化する。このため、処理対象の写真フイルムの露光
量−発色濃度特性に対し、図5(B)に太線で示すよう
に、前記特性の線形部を前記特性が非線形となる露光量
域まで延長した仮想的な露光量−発色濃度特性を設定す
る。これは、前述の仮想写真フイルムの露光量−発色濃
度特性に対応している。
The characteristic data FilmData j (d) can be determined, for example, as follows. As shown in FIG. 5 (A), for example, as shown in FIG. 5 (A), the exposure-color density characteristic of a negative film, which is a kind of a photographic film, is such that the color density changes in response to a change in exposure in a standard exposure region corresponding to normal exposure. Although linearly changing (directly proportional), in the exposure area corresponding to underexposure and the exposure area corresponding to overexposure, the gamma (change in color density with respect to change in exposure) increases as the distance from the standard exposure area increases. ) Gradually decreases, and the color density changes non-linearly with changes in the exposure amount. Therefore, as shown by the bold line in FIG. 5B, a virtual portion of the characteristic is extended to an exposure region where the characteristic becomes nonlinear with respect to the exposure-color density characteristic of the photographic film to be processed. A proper exposure-color density characteristic is set. This corresponds to the exposure-color density characteristic of the virtual photographic film described above.

【0028】次に、処理対象の写真フイルムの露光量−
発色濃度特性、及び仮想写真フイルムの露光量−発色濃
度特性において、同一の露光量に対する発色濃度を対応
付けることを全露光領域にわたって行う。例えば図5に
示すように、露光量H1に対する処理対象の写真フイル
ムの発色濃度d1と仮想写真フイルムの発色濃度d1’
とを対応付け、露光量H2に対する処理対象の写真フイ
ルムの発色濃度d2と仮想写真フイルムの発色濃度d
2’とを対応付け、露光量H3に対する処理対象の写真
フイルムの発色濃度d3と仮想写真フイルムの発色濃度
d3’とを対応付ける。
Next, the exposure amount of the photographic film to be processed-
In the color density characteristic and the exposure-color density characteristic of the virtual photographic film, the color density corresponding to the same exposure is associated over the entire exposure area. For example, as shown in FIG. 5, the color density d1 of the photographic film to be processed and the color density d1 'of the virtual photographic film with respect to the exposure amount H1.
And the color density d2 of the processing target photographic film and the color density d of the virtual photographic film with respect to the exposure amount H2.
2 'is associated with the color density d3 of the photographic film to be processed and the color density d3' of the virtual photographic film with respect to the exposure amount H3.

【0029】対応付けた発色濃度のうち、処理対象の写
真フイルムの発色濃度を入力濃度、仮想写真フイルムの
発色濃度を出力濃度とし、処理対象の写真フイルムに記
録されたフイルム画像の濃度値を、仮想写真フイルムに
記録された仮想画像の濃度値に変換するための変換条件
を設定する。上記処理をR、G、Bの各成分色について
各々行うことにより、図4(A)に示すような変換条件
を表す特性データFilmDataj (d) が得られる。
Of the associated color densities, the color density of the photographic film to be processed is defined as the input density, the color density of the virtual photographic film is defined as the output density, and the density value of the film image recorded on the photographic film to be processed is calculated as A conversion condition for converting into a density value of a virtual image recorded on the virtual photo film is set. By performing the above processing for each of the R, G, and B component colors, characteristic data FilmData j (d) representing a conversion condition as shown in FIG. 4A is obtained.

【0030】写真フイルムの露光量−発色濃度特性は、
写真フイルムのフイルム種単位で相違しているので、本
実施形態では、上記の特性データFilmDataj (d) を各フ
イルム種毎に各々設定している。ROM33には、各フ
イルム種の特性データFilmDataj (d) が、フイルム種を
識別する情報と対応されて各々記憶されている。
The exposure-color density characteristic of a photographic film is as follows.
In this embodiment, the above-described characteristic data FilmData j (d) is set for each film type because the difference is in the unit of the film type of the photographic film. The ROM 33 stores characteristic data FilmData j (d) of each film type in association with information for identifying the film type.

【0031】なお、特性データ記憶部30bには、図4
(B)に示すような、写真フイルムの露光量と基準色
(例えばG)の濃度との関係を表す露光量−発色濃度特
性に応じて定められた特性データFilmDataj (d) を記憶
してもよい。この場合には、この露光量−発色濃度特性
を用いて、上記のような非線形性の補正処理を各色共通
に求める。
Note that the characteristic data storage section 30b stores FIG.
As shown in FIG. 3B, characteristic data FilmData j (d) defined according to the exposure-color density characteristic representing the relationship between the exposure amount of the photographic film and the density of the reference color (for example, G) is stored. Is also good. In this case, the above-described non-linearity correction processing is commonly performed for each color using the exposure amount-coloring density characteristic.

【0032】[類似シーンの判定処理]類似シーンの判
定処理では、各フイルム画像間での類似度Rを求め、こ
の類似度Rが高いものほど類似していると判定する。図
6(A),(B)に示すように、先ず、類度度Rを判定
する各フイルム画像EA,EBについて、濃度ヒストグ
ラムHEA,HEBを作成する。この濃度ヒストグラム
HEA,HEBは、上記の非線形性の補正処理を行った
画像データから求める。そして、図6(C)に示すよう
に、得られた濃度ヒストグラムHEA,HEBの平均濃
度CA,CBを求めて、これらの濃度合わせを行い、類
似判定対象の濃度ヒストグラムを規格化する(CA,C
Bが重なるように、各濃度のヒストグラムHEA,HE
Bをシフトさせる。次に、規格化した濃度ヒストグラム
の各濃度における頻度の差(図6(D)のハッチング部
分)を求め、この差に基づき次式を用いて類似度Rを算
出する。
[Similar Scene Judgment Processing] In the similar scene judgment processing, the similarity R between the film images is obtained, and the higher the similarity R is, the more the similarity is determined. As shown in FIGS. 6A and 6B, first, density histograms HEA and HEB are created for each of the film images EA and EB for which the similarity R is to be determined. The density histograms HEA and HEB are obtained from the image data on which the above-described nonlinearity correction processing has been performed. Then, as shown in FIG. 6C, the average densities CA and CB of the obtained density histograms HEA and HEB are obtained, these densities are adjusted, and the density histogram of the similarity determination target is standardized (CA, C
Histograms HEA, HE of each density so that B overlaps.
Shift B. Next, a frequency difference (hatched portion in FIG. 6D) at each density of the normalized density histogram is obtained, and based on this difference, a similarity R is calculated using the following equation.

【0033】S=T−Dnm ・・・(1) ただし、S<0ならS=0、Dnmはnコマ目とmコマ目
とのヒストグラムの差分(図6(D)中のハッチング部
分)、Tは類似性関連値の上限値であり、Dnmがこの値
以上であれば類似度が「0」となるように設定する値で
ある。
S = T−Dnm (1) where S = 0 if S <0, and Dnm is the difference between the histograms of the n-th frame and the m-th frame (the hatched portion in FIG. 6D), T is an upper limit value of the similarity related value, and is a value set so that the similarity becomes “0” if Dnm is equal to or more than this value.

【0034】R=S/T ・・・(2) ただし、Rは0〜1.0の範囲をとる。R = S / T (2) where R ranges from 0 to 1.0.

【0035】得られた類似度Rに基づき、例えば類似度
Rが0≦R≦1.0の範囲にあるときに類似コマとして
判定する。これら類似コマに対しては、同一又は近似し
た画像処理条件を与えて、類似と判定されたコマのプリ
ント仕上がりを均一にする。具体的には、類似判定結果
を画像処理条件に以下のように反映させる。ある画像処
理条件のパラメータをPとした場合に、Nコマ目のパラ
メータPNを、前後のN−1コマ、N+1コマのパラメ
ータPN-1,PN+1 に基づいて、以下の式(3)により類
似コマ補正処理を行う。
Based on the obtained similarity R, for example, when the similarity R is in the range of 0 ≦ R ≦ 1.0, it is determined as a similar frame. The same or similar image processing conditions are given to these similar frames, and the print finish of the frames determined to be similar is made uniform. Specifically, the similarity determination result is reflected in the image processing conditions as follows. When the parameter of a certain image processing condition is P, the parameter PN of the Nth frame is calculated based on the parameters PN-1 and PN + 1 of the preceding and succeeding N-1 frames and N + 1 frames by the following expression ( A similar frame correction process is performed according to 3).

【0036】[0036]

【数1】 但し、Riはiコマ目の類似度であり、Ri<1.0と
なる。類似コマ補正に用いる前後のコマ数は任意である
が、2〜3コマが好ましく用いられる。
(Equation 1) Here, Ri is the similarity of the i-th frame, and Ri <1.0. Although the number of frames before and after the similar frame correction is arbitrary, 2-3 frames are preferably used.

【0037】[画像記録用パラメータの算出]図3に示
すセットアップ演算部30Aは、画像記録用パラメータ
を算出し、レーザープリンタ13に記録用画像データを
出力する際にこれを同時に出力する。画像記録用パラメ
ータは、レーザプリンタ13で印画紙に画像を記録する
際のグレーバランスを規定するものであり、フイルム画
像のプレスキャン画像データに基づいて算出される。オ
ートセットアップエンジン30は、外部から入力される
ファイル画像データに対しても同様にして、画像処理の
処理条件を演算により決定する。
[Calculation of Image Recording Parameters] The setup calculation section 30A shown in FIG. 3 calculates image recording parameters and outputs them at the same time as outputting recording image data to the laser printer 13. The image recording parameters define the gray balance when the laser printer 13 records an image on photographic paper, and are calculated based on the pre-scanned image data of the film image. The auto setup engine 30 similarly determines the processing conditions of the image processing by calculation for the file image data input from the outside.

【0038】図2に示すように、入出力コントローラ2
2は、I/F回路52を介してレーザープリンタ13に
接続されている。画像処理後の画像データを印画紙への
画像の記録に用いる場合には、イメージプロセサ部23
Aで画像処理が行われた画像データは、入出力コントロ
ーラ22からI/F回路52を介して記録用画像データ
としてレーザープリンタ13へ出力される。また、オー
トセットアップエンジン30はパソコン40に接続され
ている。画像処理後の画像データを画像ファイルとして
外部へ出力する場合には、イメージプロセサ部23で画
像処理が行われ画像データは、入出力コントローラ22
からオートセットアップエンジン30を介してパソコン
40に出力される。
As shown in FIG.
2 is connected to the laser printer 13 via the I / F circuit 52. When the image data after image processing is used for recording an image on photographic paper, the image processor unit 23
The image data subjected to the image processing in A is output from the input / output controller 22 to the laser printer 13 via the I / F circuit 52 as image data for recording. The auto setup engine 30 is connected to the personal computer 40. When the image data after the image processing is output to the outside as an image file, the image processing is performed in the image processor 23 and the image data is output to the input / output controller 22.
Is output to the personal computer 40 via the auto setup engine 30.

【0039】パソコン40は、CPU41、メモリ4
2、ディスプレイ43、キーボード44、ハードディス
ク45、CD−ROMドライバ46、搬送制御部47、
拡張スロット48、画像圧縮/伸長部49を備えてお
り、これらがバス50を介して互いに接続されて構成さ
れている。
The personal computer 40 has a CPU 41 and a memory 4
2, display 43, keyboard 44, hard disk 45, CD-ROM driver 46, transport control unit 47,
An expansion slot 48 and an image compression / decompression unit 49 are provided, and these are connected to each other via a bus 50.

【0040】図3はパソコン40のCPU41によって
実現される各種機能のうち、シミュレーション画像表示
処理に関する機能を、機能毎に複数のブロック(すなわ
ち、プレスキャン画像データ処理部40A、画像表示部
40B及びキー補正入力部40C)に分けて示してい
る。プレスキャン画像データ処理部40Aは、プレスキ
ャン画像データをプレスキャンメモリ36から取り込む
とともに、セットアップ演算部30Aによって決定され
た画像処理の処理条件を取り込む。このプレスキャン画
像データは、セットアップ演算部30Aによってプレス
キャンデータから抽出されプレスキャンメモリに再記憶
されたものである。そして、プレスキャン画像データ処
理部40Aは、取り込んだ処理条件に基づき、ファイン
スキャン画像データを対象としてイメージプロセサ25
で行われる画像処理と等価な画像処理をプレスキャン画
像データに対して行ってシミュレーション画像データを
生成する。
FIG. 3 shows, among the various functions realized by the CPU 41 of the personal computer 40, a function relating to the simulation image display processing by a plurality of blocks (that is, a prescan image data processing section 40A, an image display section 40B, and a key) for each function. The correction input section 40C) is shown separately. The pre-scan image data processing unit 40A fetches the pre-scan image data from the pre-scan memory 36 and fetches the processing conditions of the image processing determined by the setup calculation unit 30A. The prescan image data is data extracted from the prescan data by the setup calculation unit 30A and stored again in the prescan memory. Then, the pre-scan image data processing unit 40A targets the fine processor image data to the image processor 25 based on the fetched processing conditions.
The image processing equivalent to the image processing performed in (1) is performed on the prescanned image data to generate simulation image data.

【0041】画像表示部40Bはディスプレイ43(図
2参照)を含んで構成されており、プレスキャン画像デ
ータ処理部40Aによって生成されたシミュレーション
画像データを、ディスプレイ43に表示する。オペレー
タはこのシミュレーション画像を観察し、画質等の検定
を行う。そして、検定結果として処理条件の修正を指示
する情報をオペレータはキーボード44から入力する。
キー補正入力部40は、入力された修正指示情報をオー
トセットアップエンジン30へ出力する。これにより、
セットアップ演算部30Aでは画像処理条件の再演算等
が行われる。
The image display section 40B includes a display 43 (see FIG. 2), and displays the simulation image data generated by the prescanned image data processing section 40A on the display 43. The operator observes the simulation image and performs a test for image quality and the like. Then, the operator inputs information for instructing the correction of the processing condition from the keyboard 44 as the test result.
The key correction input unit 40 outputs the input correction instruction information to the auto setup engine 30. This allows
The setup calculation unit 30A performs recalculation of image processing conditions and the like.

【0042】一方、図2に示す搬送制御部47は、フイ
ルムキャリア20に接続されており、フイルムキャリア
による写真フイルムの搬送を制御する。フイルムキャリ
ア20は、ラインCCDスキャナ11にセットされてお
り、写真フイルムを長手方向に搬送する。
On the other hand, the transport controller 47 shown in FIG. 2 is connected to the film carrier 20 and controls the transport of the photographic film by the film carrier. The film carrier 20 is set on the line CCD scanner 11, and transports the photographic film in the longitudinal direction.

【0043】メモリカード等の情報記憶媒体に対してデ
ータの読み出し/書き込みを行うドライバや、他の情報
処理機器と通信を行うための通信制御装置は、拡張スロ
ット48を介してパソコン40に接続される。入出力コ
ントローラ22から外部への出力用の画像データが入力
された場合には、画像データは拡張スロット48を介し
て画像ファイルとして外部に出力される。また、拡張ス
ロット48を介して外部からファイル画像データが入力
された場合には、入力されたファイル画像データは、オ
ートセットアップエンジン30を介して入出力コントロ
ーラ22へ出力される。この場合、入出力コントローラ
22では入力されたファイル画像データをセレクタ21
へ出力する。
A driver for reading / writing data from / to an information storage medium such as a memory card, and a communication control device for communicating with other information processing equipment are connected to the personal computer 40 via the expansion slot 48. You. When image data for output is input from the input / output controller 22 to the outside, the image data is output to the outside as an image file via the expansion slot 48. When file image data is input from outside via the expansion slot 48, the input file image data is output to the input / output controller 22 via the auto setup engine 30. In this case, the input / output controller 22 converts the input file image data into the selector 21.
Output to

【0044】次に本実施形態の作用として、写真フイル
ムに記録されているフイルム画像をラインCCDスキャ
ナ11によって読み取り、読み取りによって得られた画
像データに対し各種の画像処理を行って出力する場合に
ついて説明する。
Next, as an operation of the present embodiment, a case where a film image recorded on a photographic film is read by the line CCD scanner 11, and various image processes are performed on the image data obtained by the reading and output will be described. I do.

【0045】図2に示すように、先ず写真フイルムに記
録されているフイルム画像に対し、ラインCCDスキャ
ナ11はプレスキャンとファインスキャンとの2回の読
み取りを行う。プレスキャンでは、写真フイルムの全面
に対し読み取りが行われる。このプレスキャンデータは
画像処理装置12に入力されると、ここで、ラインスキ
ャナ補正部20によって、暗補正、濃度変換、シェーデ
ィング補正、欠陥画素補正の各処理が施される。
As shown in FIG. 2, first, the line CCD scanner 11 reads a film image recorded on a photographic film twice: prescan and fine scan. In the prescan, reading is performed on the entire surface of the photographic film. When the pre-scan data is input to the image processing device 12, the line scanner corrector 20 performs various processes of dark correction, density conversion, shading correction, and defective pixel correction.

【0046】ラインスキャナ補正部20から出力された
プレスキャンデータは、セレクタ21を介してプレスキ
ャンメモリ36(図3参照)に一旦記憶された後にオー
トセットアップエンジン30に取り込まれ、オートセッ
トアップエンジン30でセットアップ演算処理が実行さ
れる。以下、このセットアップ演算処理について、図7
〜図9のフローチャートを参照して説明する。
The pre-scan data output from the line scanner correction unit 20 is temporarily stored in a pre-scan memory 36 (see FIG. 3) via the selector 21 and then taken in by the auto setup engine 30. Setup operation processing is executed. Hereinafter, this setup calculation process will be described with reference to FIG.
This will be described with reference to flowcharts of FIGS.

【0047】ステップ100では、プレスキャンメモリ
36から取り込んだプレスキャンデータから、処理対象
の写真フイルム上のDXコードバーコードが記録されて
いる領域のデータを抽出する。次のステップ102で
は、ステップ100での抽出データから処理対象の写真
フイルムに記録されたDXコードの内容を判断し、この
内容に基づいて処理対象の写真フイルムのフイルム種を
判定する。ステップ104では、ROM33(特性デー
タ記憶部30B)に記憶されている各フイルム種毎の特
性データFilmDataj (d) の中から、処理対象の写真フイ
ルムのフイルム種に対応する特性データFilmDataj (d)
を取り込む。そして、次のステップ106では、取り込
んだ特性データFilmDataj (d) を非線形性補正の変換条
件として設定する。
In step 100, from the pre-scan data fetched from the pre-scan memory 36, data in the area where the DX code barcode is recorded on the photographic film to be processed is extracted. In the next step 102, the contents of the DX code recorded on the photographic film to be processed are determined from the data extracted in step 100, and the film type of the photographic film to be processed is determined based on this content. In step 104, ROM 33 from the (characteristic data storage unit 30B) characteristic data for each film type stored in FilmData j (d), film species corresponding characteristic data FilmData j of the photographic film to be processed (d )
Take in. Then, in the next step 106, the acquired characteristic data FilmData j (d) is set as a conversion condition for nonlinearity correction.

【0048】ステップ108では、プレスキャンメモリ
36から取り込んだプレスキャンデータから、処理対象
の写真フイルム上の未露光領域(素抜け領域)のデータ
を抽出し、抽出したデータが表すR、G、Bの濃度値
を、処理対象の写真フイルムのフイルムベース濃度 Bas
eDnsj として設定する。
In step 108, data of an unexposed area (plain area) on the photographic film to be processed is extracted from the pre-scan data fetched from the pre-scan memory 36, and R, G, B represented by the extracted data Of the density value of the photographic film to be processed
Set as eDns j .

【0049】次のステップ110では、先のステップ1
04で取り込んだ特性データFilmDataj (d) によって定
義されているR、G、Bの最低濃度を、フイルムベース
濃度Basednsj として各々設定する。そしてステップ1
12では、フイルムベース濃度 BaseDnsj 及びフイルム
ベース濃度の基準値BaseDataj を、処理対象の写真フイ
ルムに対するオフセット補正値として記憶する。
In the next step 110, the previous step 1
The minimum densities of R, G, and B defined by the characteristic data FilmData j (d) captured in step 04 are set as film-based densities Basedns j . And step 1
In 12, the reference value BaseData j of the film base density BaseDns j and film base density, is stored as the offset correction value for the photographic film to be processed.

【0050】次のステップ114〜120では、個々の
フイルム画像を単位として処理を行う。すなわちステッ
プ114では、プレスキャンメモリ36から取り込んだ
プレスキャンデータに基づき、1コマ分のフイルム画像
の写真フイルム上での記録位置(コマ位置)を判定し、
判定したコマ位置に基づいてプレスキャンデータからフ
イルム画像記録位置に対応するフイルム画像データ IMA
GEj (x)を切り出す(なお、xは個々の画素を識別す
るIDを表す)。このフイルム画像データ IMAGEj
(x)(プレスキャン画像データ)は、本発明にかかる
読取画像データに対応している。
In the following steps 114 to 120, processing is performed for each film image. That is, in step 114, the recording position (frame position) of the one-frame film image on the photographic film is determined based on the pre-scan data fetched from the pre-scan memory 36,
Film image data corresponding to the film image recording position from the pre-scan data based on the determined frame position IMA
GE j (x) is cut out (x represents an ID for identifying each pixel). This film image data IMAGE j
(X) (pre-scan image data) corresponds to the read image data according to the present invention.

【0051】ステップ116では、ステップ114で切
り出したフイルム画像データ IMAGE j (x)に対し、先
のステップ112で記憶したオフセット補正値を用い、
次の(3)式にしたがって個々の画素のデータを単位と
してオフセット補正処理を行う。
In step 116, the disconnection is made in step 114.
IMAGE image data j (X)
Using the offset correction value stored in step 112 of
The data of each pixel is defined as a unit according to the following equation (3).
To perform offset correction processing.

【0052】 IMAGE2j (x)= IMAGEj (x)− BaseDnsj +BaseDataj ・・・(3) 写真フイルムのフイルムベースの濃度は写真フイルムに
対して現像処理を行った際の現像条件によって変動し、
このフイルムベースの濃度の変動はフイルム画像データ
IMAGEj (x)にオフセットとして加わる。また、ライ
ンCCDによる写真フイルムの読み取り時に、読み取り
に用いる光源からの射出光量が所期の光量と相違してい
た場合にも、この光量の相違がフイルム画像データ IMA
GEj(x)にオフセットとして加わる。これに対し、上
記のオフセット補正処理では、フイルムベース濃度 Bas
eDnsj とフイルムベース濃度の基準値BaseDataj との差
分に応じて、フイルム画像データ IMAGEj (x)を補正
するので、処理対象の写真フイルムに対する現像処理の
現像条件の変動や、写真フイルム読み取り時の光源の光
量の変動に起因するフイルム画像データ IMAGEj (x)
のオフセットを補正することができる。
IMAGE2 j (x) = IMAGE j (x) −BaseDns j + BaseData j (3) The density of the film base of the photographic film varies depending on the development conditions when the photographic film is subjected to the development processing. ,
This change in film-based density is based on the film image data.
It is added to IMAGE j (x) as an offset. Further, even when the amount of light emitted from the light source used for reading is different from the expected amount of light when reading a photographic film by the line CCD, the difference in the amount of light is reflected by the film image data IMA.
Add as an offset to GE j (x). In contrast, in the above offset correction processing, the film base density Bas
The film image data IMAGE j (x) is corrected according to the difference between eDns j and the reference value BaseData j of the film base density, so that the development condition of the development processing for the photographic film to be processed is changed and the photographic film is read. IMAGE j (x)
Can be corrected.

【0053】次のステップ118では、オフセット補正
処理後のフイルム画像データIMAGE2 j (x)に対し、先
のステップ104で取り込んだ特性データFilmDataj
(d) を用い、次の(4)式にしたがって個々の画素のデ
ータを単位としてR、G、B毎に非線形性補正処理を行
う。
In the next step 118, offset correction
Film image data IMAGE2 after processing j (X)
Characteristic data FilmData captured in step 104 ofj 
Using (d), the data of each pixel is calculated according to the following equation (4).
Non-linearity correction processing is performed for each of R, G, and B in data units.
U.

【0054】 IMAGE3j (x)=FilmDataj (d) +(IMAGE2j (x)) ・・・(4) 上記の非線形補正処理により、処理対象の写真フイルム
の露光量−発色濃度特性の非線形性による影響が除去さ
れる。そして、オフセット補正処理後のフイルム画像デ
ータIMAGE3j (x)は、仮想写真フイルムに記録した仮
想フイルム画像の画像データとほぼ等しい画像データ
(フイルム画像データIMAGE3j (x))に変換されるこ
とになる。前記仮想写真フイルムは、全濃度域に亘って
露光量の変化に対して発色濃度が線形に変化する露光量
−発色濃度特性(図6(B)の太線参照)を有してい
る。
IMAGE3 j (x) = FilmData j (d) + (IMAGE2 j (x)) (4) By the above-described nonlinear correction processing, the nonlinearity of the exposure amount-coloring density characteristic of the photographic film to be processed The effect due to is eliminated. Then, the film image data IMAGE3 j (x) after the offset correction processing is converted into image data (film image data IMAGE3 j (x)) substantially equal to the image data of the virtual film image recorded on the virtual photograph film. Become. The virtual photographic film has an exposure-color density characteristic (see a thick line in FIG. 6B) in which the color density changes linearly with the change in the exposure over the entire density range.

【0055】次のステップ120では、上述したステッ
プ114〜118の処理を、処理対象の写真フイルムに
記録されている全てのフイルム画像に対して行った否か
判定する。判定が否定された場合にはステップ114に
戻り、ステップ120の判定が肯定されるまでステップ
114〜120を繰り返す。これにより、全てのフイル
ム画像について、非線形補正処理後のフイルム画像デー
タIMAGE3j (x)が各々求められることになる。
In the next step 120, it is determined whether or not the above-described processing in steps 114 to 118 has been performed for all the film images recorded on the photographic film to be processed. If the determination is negative, the process returns to step 114, and steps 114 to 120 are repeated until the determination in step 120 is affirmed. Thereby, the film image data IMAGE3 j (x) after the non-linear correction processing is obtained for all the film images.

【0056】ところで、写真フイルムの露光量−発色濃
度特性は、標準現像条件で現像処理された場合であって
もR、G、B毎に相違していると共に、写真フイルムに
対する現像処理の現像条件が標準現像条件に対して偏倚
すると、写真フイルムの実際の露光量−発色濃度特性は
更にR、G、B毎に別々に変動する。したがって、非線
形性補正処理後のフイルム画像データIMAGE3j (x)が
表す画像の色バランスは、写真フイルムの実際の露光量
−発色濃度特性のR、G、B毎の相違に起因して、撮影
時(写真フイルムへの被写体像の露光記録時)の被写体
像の色バランスと相違している(グレーバランスが崩れ
ている)。このため、次のステップ122以降では、画
像データが表す画像の色バランスを被写体像の色バラン
スにほぼ一致させるための画像データの規格化を行う。
The exposure-color density characteristics of the photographic film are different for each of R, G, and B even when the photographic film is developed under the standard developing conditions. Deviates from the standard development conditions, the actual exposure-color density characteristics of the photographic film further vary for each of R, G, and B. Therefore, the color balance of the image represented by the film image data IMAGE3 j (x) after the non-linearity correction processing is determined by the difference between the R, G, and B of the actual exposure-color density characteristics of the photographic film. At the time of exposure (at the time of exposure recording of the subject image on the photographic film) (the gray balance is lost). Therefore, in the next step 122 and subsequent steps, the image data is normalized so that the color balance of the image represented by the image data substantially matches the color balance of the subject image.

【0057】ステップ122では、各フイルム画像の非
線形性補正処理後のフイルム画像データに基づいて各フ
イルム画像の解析を行う。これにより、各フイルム画像
のフイルム画像データから、処理対象フイルム画像とし
て処理対象写真フイルムに撮影記録された被写体像上で
色相が無彩色(グレー等)と推定される部分に対応する
画素(グレー候補点)を各々抽出する。このグレー候補
点の抽出は、例えば以下のようにして行う。
In step 122, each film image is analyzed based on the film image data after the non-linearity correction processing of each film image. As a result, from the film image data of each film image, a pixel (gray candidate) corresponding to a portion where the hue is estimated to be an achromatic color (gray or the like) on the subject image captured and recorded on the processing target photographic film as the processing target film image Points) are extracted. The extraction of the gray candidate points is performed, for example, as follows.

【0058】各フイルム画像のフイルム画像データに基
づいて、各フイルム画像に対し、高濃度側における無彩
色の条件を表す高濃度側R、G、B基準濃度及び低濃度
側における無彩色の条件を表す低濃度側R、G、B基準
濃度を各々設定する。これらの基準濃度としては、例え
ばフイルム画像中の3色平均濃度が最大の画素、3色平
均濃度が最小の画素の色味(被写体像上でその画素に対
応する部分の色相)を無彩色とみなし、その画素のR、
G、B濃度値を高濃度側及び低濃度側のR、G、B基準
濃度とすることができる。また、3色平均濃度の濃度ヒ
ストグラムにおいて3色平均濃度の最大値、最小値から
の累積頻度が所定値の画素の色味を無彩色とみなし、そ
の画素のR、G、B濃度値を上記基準濃度としてもよ
い。また、3色平均濃度の最大値からの累積頻度が所定
範囲内の複数の画素のR、G、B毎の平均濃度を高濃度
側R、G、B基準濃度とし、3色平均濃度の最小値から
の累積頻度が所定範囲内の複数の画素のR、G、B毎の
平均濃度を低濃度側R、G、B基準濃度としてもよい。
Based on the film image data of each film image, the high density side R, G, B reference density representing the high density side achromatic color condition and the achromatic color condition on the low density side are defined for each film image. The low-density R, G, and B reference densities to be represented are respectively set. As these reference densities, for example, the color of the pixel having the maximum three-color average density in the film image and the hue of the pixel having the minimum three-color average density (the hue of the portion corresponding to the pixel on the subject image) are regarded as achromatic. Regarding, R of the pixel,
The G and B density values can be used as the R, G and B reference densities on the high and low density sides. Further, in the density histogram of the three-color average density, the tint of a pixel whose cumulative frequency from the maximum value and the minimum value of the three-color average density is a predetermined value is regarded as an achromatic color, and the R, G, and B density values of the pixel are determined as described above. The reference density may be used. Further, the average density for each of R, G, and B of a plurality of pixels whose cumulative frequency from the maximum value of the three-color average densities is within a predetermined range is defined as the high-density R, G, and B reference densities. The average density for each of R, G, and B of a plurality of pixels whose cumulative frequency from the value is within a predetermined range may be used as the low-density R, G, and B reference densities.

【0059】次に、R、G、B基準濃度の精度を向上さ
せるために、各フイルム画像に対して各々設定した高濃
度側R、G、B基準濃度のR、G、B毎の平均値(高濃
度側平均R、G、B基準濃度)、低濃度側R、G、B基
準濃度のR、G、B毎の平均値(低濃度側平均R、G、
B基準濃度)を演算する。
Next, in order to improve the accuracy of the R, G, and B reference densities, the average values of the R, G, and B reference densities for each of R, G, and B set for each film image are set. (High-density-side average R, G, B reference density), low-density-side R, G, and B reference density average values for each of R, G, and B (low-density-side average R, G,
B reference density).

【0060】続いて、高濃度側平均R、G、B基準濃度
及び低濃度側平均R、G、B基準濃度に基づいて、フイ
ルム画像の各画素の3色平均濃度と、各画素の色味が無
彩色のときのR、G、B濃度との関係を表す無彩色条件
を決定する。これは、例えば図10に示すように、色座
標(図10ではR濃度−G濃度を横軸、G濃度−B濃度
を縦軸にとった色座標を例として示す)上に高濃度側平
均R、G、B基準濃度及び低濃度側平均R、G、B基準
濃度を各々プロットし、例えば両者を直線(無彩色線と
いう)で結び、全てのフイルム画像のフイルム画像デー
タの中から、R、G、B濃度が無彩色線を中心とする一
定の範囲(例えば図10に破線で囲んで示す範囲)内に
入る画素のデータを多数抽出し、抽出した各画素のデー
タより3色平均濃度と各画素のR、G、B濃度との関係
を表す無彩色条件を最小二乗法、回帰分析等によって決
定することができる。
Subsequently, based on the high-density-side average R, G, and B reference densities and the low-density-side average R, G, and B reference densities, the three-color average density of each pixel of the film image and the tint of each pixel are determined. The achromatic condition representing the relationship with the R, G, and B densities when a is an achromatic color is determined. This is, for example, as shown in FIG. 10, the high-density-side average is displayed on the color coordinates (in FIG. 10, the color coordinates with the R density-G density on the horizontal axis and the G density-B density on the vertical axis). R, G, B reference densities and low-density average R, G, B reference densities are plotted, for example, both are connected by a straight line (called an achromatic line), and R is selected from the film image data of all the film images. , G, B densities are extracted from a large number of pixels that fall within a certain range centered on the achromatic line (for example, a range surrounded by a broken line in FIG. 10), and three-color average densities are extracted from the extracted pixel data. And the achromatic condition representing the relationship between R, G, and B density of each pixel can be determined by the least square method, regression analysis, or the like.

【0061】この無彩色条件は、フイルム画像中の無彩
色の画素(被写体像中のグレイの部分に相当する画素)
におけるR、G、Bの濃度バランス(各濃度域における
色バランス)を表しており、無彩色条件に合致する画素
をグレー候補点として抽出する。なお、グレー候補点の
抽出方法は上記に限定されるものではなく、公知の種々
の抽出方法を適用可能である。ステップ122では、上
記のようにして抽出したグレー候補点の中から、更に、
処理対象の写真フイルムの露光量−発色濃度特性におけ
る線形部に相当する濃度域内の画素を最終的なグレー候
補点として抽出する。
The achromatic condition is that an achromatic pixel in the film image (a pixel corresponding to a gray portion in the subject image)
Represents the density balance of R, G, and B (color balance in each density range), and extracts a pixel matching the achromatic color condition as a gray candidate point. The method for extracting gray candidate points is not limited to the above, and various known extraction methods can be applied. In step 122, from among the gray candidate points extracted as described above,
A pixel in a density region corresponding to a linear portion in the exposure amount-coloring density characteristic of the photographic film to be processed is extracted as a final gray candidate point.

【0062】次のステップ124では、画像データの規
格化処理で使用する重み係数α1、α2を決定する。重
み係数α1はフイルム画像データから求めた規格化条件
に対するものであり、重み係数α2は特性データから求
めた規格化条件に対するものである。この重み係数α
1,α2は、グレー候補点の数が多くなるにしたがっ
て、重み係数α1の値が大きくなるように定めることが
できる。
In the next step 124, the weighting factors α1 and α2 used in the normalization processing of the image data are determined. The weight coefficient α1 is for the normalization condition obtained from the film image data, and the weight coefficient α2 is for the normalization condition obtained from the characteristic data. This weight coefficient α
1, α2 can be determined so that the value of the weight coefficient α1 increases as the number of gray candidate points increases.

【0063】ところで、画像データが表す画像の色バラ
ンスを被写体像の色バランスに一致させることは、撮影
時の各色(R、G、B)の露光量と、画像データが表す
画像上での各色(R、G、B)の濃度との関係が、各色
で一致する(重なる)ように、各画素のデータを単位と
して画像データを変換する(規格化処理)ことで、実現
することができる。
In order to match the color balance of the image represented by the image data with the color balance of the subject image, the exposure amount of each color (R, G, B) at the time of shooting and each color on the image represented by the image data This can be realized by converting image data in units of data of each pixel (normalization process) so that the relationship with the density of (R, G, B) matches (overlaps) in each color.

【0064】本実施形態では、非線形性の補正を実行し
た後のフイルム画像データに対して規格化処理を行うの
で、R、G、Bの各色についての上記関係は各々線形に
なっている。したがって、本実施形態に係る規格化処理
は、フイルム画像データに対し、R、G、B各色のデー
タを単位として各々線形変換を行うことにより実現でき
る。次のステップ126,128では、前記グレー候補
点のデータに基づいて、線形変換によって画像データを
規格化する規格化条件を決定する。
In the present embodiment, since the normalization process is performed on the film image data after the non-linearity is corrected, the above relations for each of the R, G, and B colors are linear. Therefore, the normalization processing according to the present embodiment can be realized by performing linear conversion on the film image data in units of R, G, and B color data. In the following steps 126 and 128, a normalization condition for normalizing the image data by linear conversion is determined based on the data of the gray candidate points.

【0065】先ず、ステップ126では、グレー候補点
のR、G、B毎の平均濃度Dr、Dg、Dbが全て等し
く(Dr=Dg=Db)なるように規格化する第1の規
格化条件を特定の成分色(例えばG)を基準にしてR、
G、B毎に演算によって求める。この第1の規格化条件
としては、規格化を行うための線形変換式のパラメータ
であるゲインGanma1j 、オフセット量 Offset1j とがあ
る。
First, in step 126, a first normalization condition for normalizing so that the average densities Dr, Dg, and Db of the R, G, and B gray candidate points are all equal (Dr = Dg = Db) is set. R, based on a specific component color (for example, G)
It is obtained by calculation for each of G and B. The first normalization condition includes a gain Ganma1 j and an offset amount Offset1 j , which are parameters of a linear conversion equation for performing normalization.

【0066】前記グレー候補点の数が少ない等の場合に
は、グレー候補点のR、G、B毎の平均濃度Dr、D
g、Dbの差が、撮影時の露光量とフイルム画像データ
が表す画像上での濃度との関係のR、G、B各色毎のず
れを正確に表していない場合がある。この場合には、先
の第1の規格化条件のみを用いて規格化処理を行ったと
しても精度良く色バランスを補正することができない。
In the case where the number of the gray candidate points is small, for example, the average densities Dr, D
In some cases, the difference between g and Db does not accurately represent the deviation between the R, G, and B colors in the relationship between the exposure amount at the time of shooting and the density on the image represented by the film image data. In this case, even if the normalization process is performed using only the first normalization condition, the color balance cannot be accurately corrected.

【0067】このため、線形変換式のパラメータである
ゲインGanma2j 、オフセット量 Offset2j とからなる第
2の規格化条件を用いて、各色毎の変換条件の変換曲線
をほぼ一致させる(重ねる)変換を行う。この第2の規
格化条件は予め設定されて、特性データ記憶部30Bに
予め記憶されている。
Therefore, using the second normalization condition including the gain Ganma2 j and the offset amount Offset2 j which are the parameters of the linear conversion formula, the conversion curves of the conversion conditions for each color are almost matched (overlap). I do. The second normalization condition is set in advance and stored in the characteristic data storage unit 30B in advance.

【0068】次のステップ130では、処理対象の写真
フイルムのフイルム種に対応する第2の規格化条件を取
り込む。次のステップ132では、ステップ128で演
算した規格化条件のパラメータ及びステップ130で取
り込んだ規格化条件のパラメータを、次の(5),
(6)式にしたがって重み付け加算し、パラメータを演
算する。 Ganmaj =α1 ×Ganma1j +α2 ×Ganma2j ・・・(5) Offsetj =α1 × Offset1j +α2 × Offset2j ・・・(6)
In the next step 130, the second normalization condition corresponding to the film type of the photographic film to be processed is fetched. In the next step 132, the parameters of the normalization condition calculated in step 128 and the parameters of the normalization condition fetched in step 130 are stored in the following (5),
The parameters are calculated by weighting and adding according to equation (6). Ganma j = α1 × Ganma1 j + α2 × Ganma2 j ... (5) Offset j = α1 × Offset1 j + α2 × Offset2 j ... (6)

【0069】ステップ134では、フイルム画像データ
IMAGE3j (x)を取り込み、これに対して、上記
(5),(6)で得られたパラメータを用いて、次の
(7)式を用いて、R、G、Bの規格化処理を行う。
In step 134, the film image data
IMAGE3 j (x) is fetched, and the R, G, and B standardization processing is performed using the parameters obtained in (5) and (6) above and the following equation (7). Do.

【0070】 IMAGE4j (x)= Ganmaj ×IMAGE3j (x)+Offsetj ・・・(7) 上記の規格化処理により、写真フイルムの元々の露光量
−発色濃度特性の相違によって生ずる処理対象画像の色
バランス(R、G、B毎の濃度のバランス)の偏倚を補
正することができる。これにより、R、G、B各色の撮
影時の露光量と画像データが表す画像上での濃度との関
係が各々線形で且つ互いにほぼ一致された画像データが
得られる。したがって、撮影時の被写体像を正確に表す
フイルム画像データIMAGE4j (x)を得ることができ
る。
IMAGE4 j (x) = Ganma j × IMAGE3 j (x) + Offset j (7) By the above-described normalization processing, an image to be processed resulting from a difference in the original exposure amount-coloring density characteristic of the photographic film Of the color balance (balance of density for each of R, G, and B) can be corrected. As a result, image data is obtained in which the relationship between the exposure amount of each color of R, G, and B at the time of imaging and the density on the image represented by the image data is linear and almost coincident with each other. Therefore, it is possible to obtain film image data IMAGE4 j (x) that accurately represents a subject image at the time of shooting.

【0071】上記の規格化処理では、各フイルム画像か
ら最終的に抽出したグレー候補点の数に基づいて、フイ
ルム画像データから求めた第1の規格化条件のパラメー
タ(Ganma1j , Offset1j )と、特性データから求めた
第2の規格化条件のパラメータ(Ganma2j , Offset2
j )とを重み付けし規格化条件のパラメータ( Ganmaj,
Offsetj )を決定しているので、各フイルム画像から
抽出したグレー候補点の数が少なく、規格化処理による
補正精度が低いと推定される場合でも、第1の規格化条
件のパラメータに対する重みが小さくされることで、画
像データが表す画像の色バランスを高精度に補正するこ
とができる。
In the above-mentioned normalization processing, the parameters (Ganma1 j , Offset1 j ) of the first normalization condition obtained from the film image data are based on the number of gray candidate points finally extracted from each film image. , Parameters of the second normalization condition (Ganma2 j , Offset2
j ) and the parameters of the normalization condition (Ganma j ,
Offset j ) is determined, so even if the number of gray candidate points extracted from each film image is small and the correction accuracy by the normalization process is estimated to be low, the weight for the parameter of the first normalization condition is By reducing the size, the color balance of the image represented by the image data can be corrected with high accuracy.

【0072】ステップ136では、規格化処理後のフイ
ルム画像データに基づいて、フイルム画像の濃度補正値
を演算する。この濃度補正値は、次の(8)式を用い
て、予め設定されている周知の濃度補正演算式に基づき
求められる。 DHosj = f( IMAGE4j (x)) ・・・(8)
In step 136, a density correction value of the film image is calculated based on the film image data after the normalization processing. This density correction value is obtained by using the following equation (8) and a known density correction calculation equation that is set in advance. DHos j = f (IMAGE4 j (x)) (8)

【0073】次のステップ138では、上述したステッ
プ122〜136の処理を、処理対象の写真フイルムに
記録されている全てのフイルム画像に対して行った否か
判定する。判定が否定された場合にはステップ122に
戻り、ステップ138の判定が肯定されるまでステップ
122〜136を繰り返す。これにより、全てのフイル
ム画像について、規格化条件パラメータ Ganmaj , Offs
etj 及び濃度補正値DHosj が各々求められることにな
る。
In the next step 138, it is determined whether or not the above-described processing in steps 122 to 136 has been performed on all the film images recorded on the photographic film to be processed. If the determination is negative, the process returns to step 122, and steps 122 to 136 are repeated until the determination in step 138 is affirmative. Thus, the normalization condition parameters Ganma j , Offs
et j and the density correction value DHos j are obtained respectively.

【0074】ステップ140では、類似コマについてグ
レー階調バランスの補正処理が行われる。この補正処理
は、ステップ132で演算したパラメータを、次の
(9)式、(10)式を用いて類似度に応じた重み付け
処理を行う。
In step 140, gray tone balance correction processing is performed on similar frames. In this correction processing, the parameters calculated in step 132 are subjected to weighting processing according to the similarity using the following equations (9) and (10).

【数2】 (Equation 2)

【数3】 (Equation 3)

【0075】ステップ142では、類似コマについて濃
度補正処理が行われる。この補正処理は、ステップ13
6で演算した濃度補正値を次の(11)式を用いて類似
度に応じた重み付け処理を行う。
In step 142, a density correction process is performed on similar frames. This correction processing is performed in step 13
The density correction value calculated in 6 is subjected to weighting processing according to the similarity using the following equation (11).

【数4】 (Equation 4)

【0076】ステップ143では、ファインスキャン画
像データに対する画像処理の処理条件を決定する。な
お、決定した画像処理の処理条件は、特定のフイルム画
像を識別するコマ番号情報と対応されてRAM148に
記憶される。ステップ144では、類似コマ補正された
規格化条件パラメータ及び濃度補正値を元にフイルム画
像データIMAGE5j (x)を算出する。ステップ145で
は、画像特徴量に基づいてファインスキャン時のライン
CCDスキャナの読取条件を演算する。
In step 143, processing conditions for image processing on the fine scan image data are determined. The determined processing conditions of the image processing are stored in the RAM 148 in association with the frame number information for identifying the specific film image. In step 144, the film image data IMAGE5 j (x) is calculated based on the normalized condition parameters and the density correction values subjected to the similar frame correction. In step 145, the reading condition of the line CCD scanner at the time of the fine scan is calculated based on the image feature amount.

【0077】ステップ146では、処理対象の写真フイ
ルムに記録されている全てのフイルム画像に対して、ス
テップ140〜144の処理を行ったか否か判定する。
判定が否定された場合には、ステップ140に戻り、以
下ステップ140〜144の処理を繰り返す。ステップ
146で判定が肯定されるとステップ148へ移行し、
各フイルム画像の規格化処理後のフイルム画像データIM
AGE5j (x)を、プレスキャンメモリ36を介してパソ
コン40に転送するとともに、各フイルム画像のファイ
ンスキャン画像データに対する画像処理の処理条件をパ
ソコン40に転送し、セットアップ演算処理を終了す
る。
In step 146, it is determined whether or not the processing in steps 140 to 144 has been performed on all the film images recorded on the photographic film to be processed.
If the determination is negative, the process returns to step 140, and the processes of steps 140 to 144 are repeated thereafter. If the determination in step 146 is affirmative, the process proceeds to step 148,
Film image data IM after normalization processing of each film image
AGE5 j (x) is transferred to the personal computer 40 via the pre-scan memory 36, and the image processing conditions for the fine scan image data of each film image are transferred to the personal computer 40, thus ending the setup calculation process.

【0078】各フイルム画像のフイルム画像データIMAG
E5j (x)及び画像処理の処理条件が転送されると、パ
ソコン40では画像検定処理を行う。すなわち、図3に
示すように、プレスキャン画像データ処理部40Aで
は、オートセットアップエンジン30から転送された画
像処理の処理条件に基づき、ファインスキャン画像デー
タを対象としてイメージプロセサ25で実行される画像
処理と等価な画像処理をフイルム画像データに対して行
って、シミュレーション画像データを生成する。また、
画像処理装置12では、プレスキャン画像データ処理部
40Aで生成されたシミュレーション画像データに基づ
いて、イメージプロセサ25での画像処理実行後のファ
インスキャン画像データを用いてプリントを作成した場
合の仕上がりを表すシミュレーション画像を画像表示部
40B(ディスプレイ43)に表示する。
Film image data IMAG of each film image
When the processing conditions of E5 j (x) and the image processing are transferred, the personal computer 40 performs image verification processing. That is, as shown in FIG. 3, the prescanned image data processing unit 40A performs image processing performed by the image processor 25 on the fine scan image data based on the processing conditions of the image processing transferred from the auto setup engine 30. Is performed on the film image data to generate simulation image data. Also,
In the image processing device 12, based on the simulated image data generated by the prescanned image data processing unit 40A, the image processing device 12 represents a finish when a print is created using fine scan image data after image processing has been performed by the image processor 25. The simulation image is displayed on the image display unit 40B (display 43).

【0079】このシミュレーション画像をオペレータは
観察し、コマ位置が適正か否か、シミュレーション画像
の画質が適正か否か等の検定を行う。この決定結果はキ
ー補正入力部40C(キーボード44)を介して入力さ
れる。
The operator observes the simulation image and checks whether the frame position is proper or not, and whether the image quality of the simulation image is proper or not. This determination result is input via the key correction input unit 40C (keyboard 44).

【0080】特定のフイルム画像に対してコマ位置や画
像処理の処理条件の修正が指示されると、オートセット
アップエンジン30は、特定のフイルム画像に対し、先
に説明したセットアップ演算処理のうち、入力された修
正指示に対応する処理を再度行い、この修正指示が反映
されたフイルム画像データ及び再演算した画像処理の処
理条件を転送する。これにより、ディスプレイ43には
修正後のシミュレーション画像が再表示される。
When an instruction to correct the frame position or the image processing conditions is given to a specific film image, the auto setup engine 30 executes the input operation of the setup calculation process described above for the specific film image. The processing corresponding to the corrected instruction is performed again, and the film image data reflecting the corrected instruction and the processing conditions of the recalculated image processing are transferred. As a result, the corrected simulation image is displayed again on the display 43.

【0081】この再表示画像を観察し、再度修正が必要
な場合には同様の修正操作が行われる。また、修正が適
正である場合には検定終了を表す情報が入力され、これ
により画像検定処理が終了する。
This redisplayed image is observed, and if a correction is necessary again, a similar correction operation is performed. If the correction is appropriate, information indicating the end of the test is input, and the image test process is terminated.

【0082】写真フイルムに対するプレスキャンが終了
すると、ラインCCDスキャナ11により、ファインス
キャンが行われる。このファインスキャンに際しては、
個々のフイルム画像に対する読取条件がオートセットア
ップエンジン30からラインCCDスキャナ11に通知
される。したがって、この読取条件にしたがって各フイ
ルム画像がファインスキャンされる。
When the pre-scan for the photographic film is completed, the fine scan is performed by the line CCD scanner 11. For this fine scan,
The reading conditions for each film image are notified from the auto setup engine 30 to the line CCD scanner 11. Therefore, each film image is fine-scanned according to the reading conditions.

【0083】各フイルム画像に対する画像処理の処理条
件については、ラインCCDスキャナ11から各フイル
ム画像のファインスキャン画像データが入力される際に
オートセットアップエンジン30からイメージプロセサ
25に通知される。イメージプロセサ25は、入力され
た各フイルム画像のファインスキャン画像データに対
し、通知された内容の画像処理を行う。
The processing conditions for image processing for each film image are notified from the auto setup engine 30 to the image processor 25 when the fine scan image data of each film image is input from the line CCD scanner 11. The image processor 25 performs image processing of the notified contents on the input fine scan image data of each film image.

【0084】イメージプロセサ25のオフセット演算部
25Bは、先に説明したセットアップ演算処理のステッ
プ112で記憶されたオフセット補正値を用い、(3)
式にしたがってオフセット補正処理を行う。また、非線
形性補正部25Cは、セットアップ演算のステップ10
6で変換条件として設定された特性データFilmDataj(d)
を用い、(4)式にしたがって非線形性補正処理を行
う。また、画像データ規格化部25Dは、セットアップ
演算処理のステップ132で演算さたパラメータ( Gan
maj ,Offsetj )を用い、(4)式にしたがって規格化
処理を行う。これらの処理により、ファインスキャン画
像データは、撮影時の被写体像を正確に表す画像データ
に変換されることになる。
The offset calculation unit 25B of the image processor 25 uses the offset correction value stored in the above-described step 112 of the setup calculation processing to obtain (3)
The offset correction processing is performed according to the equation. Further, the non-linearity correction unit 25C performs step 10 of the setup operation.
Characteristic data FilmData j (d) set as conversion conditions in 6.
And the nonlinearity correction processing is performed according to the equation (4). Further, the image data normalizing unit 25D determines the parameter (Gan) calculated in step 132 of the setup calculation process.
ma j , Offset j ), and performs a normalization process according to equation (4). Through these processes, the fine scan image data is converted into image data that accurately represents the subject image at the time of shooting.

【0085】イメージプロセサ25に入力されたファイ
ンスキャン画像データは、上記の画像処理以外にも、第
1の画像処理部25A及び第2の画像処理部25Eで各
種の画像処理が行われた後に、出力用画像データとして
イメージプロセサ25から出力される。この第2の画像
処理部25Eでは、ステップ142で類似度に応じて求
められた各フイルム画像の濃度補正値に基づき濃度補正
処理も行う。出力用画像データは、レーザプリンタ13
における印画紙への画像の記録に用いられるか、又はデ
ィスプレイ43への画像の表示に用いられるか、又は拡
張スロット48を介してメモリカード等の情報記録媒体
に収納される。
The fine scan image data input to the image processor 25 is subjected to various types of image processing by the first image processing unit 25A and the second image processing unit 25E in addition to the above-described image processing. The image data is output from the image processor 25 as output image data. The second image processing unit 25E also performs a density correction process based on the density correction value of each film image obtained according to the similarity in step 142. The output image data is stored in the laser printer 13.
Is used to record an image on photographic paper, is used to display an image on the display 43, or is stored in an information recording medium such as a memory card via the expansion slot 48.

【0086】なお、上記実施形態では、プレスキャン画
像データに基づき類似判定処理を行っているが、これに
代えて、ファインスキャン画像データに基づき、類似判
定処理を行ってもよい。
In the above embodiment, the similarity determination processing is performed based on the pre-scan image data, but instead, the similarity determination processing may be performed based on the fine scan image data.

【0087】また、上記実施形態では、濃度ヒストグラ
ムの各濃度における頻度の差を求め、この差に基づき類
似度を求めたが、これに代えて、周知のパターン認識技
術を用いて濃度ヒストグラムが類似しているか否かを判
定してもよい。また、特開昭54−26729号公報に
記載の同一シーンコマ判定方法を用いて、同一シーンか
否かを判定してもよい。この場合にも写真フイルムの非
線形性を補正して被写体の輝度に対してリニアになるよ
うに画像データを変換してから、同一シーンか否かを判
定する。更には、特開平56−153334号公報に記
載の露出制御方法における類似判定の前に、上記の非線
形性の補正を行い、本発明を実施してもよい。
In the above-described embodiment, the difference in frequency between the densities of the density histogram is obtained, and the similarity is obtained based on the difference. Alternatively, the similarity of the density histogram may be obtained by using a well-known pattern recognition technique. It may be determined whether or not it is performed. Alternatively, it may be determined whether or not the scenes are the same by using the same scene frame determination method described in Japanese Patent Application Laid-Open No. 54-27729. Also in this case, after correcting the nonlinearity of the photographic film and converting the image data so as to be linear with respect to the luminance of the subject, it is determined whether or not the scenes are the same. Further, before the similarity determination in the exposure control method described in JP-A-56-153334, the above-described nonlinearity correction may be performed to implement the present invention.

【0088】上記実施形態では、デジタルプリントシス
テムに本発明を実施したが、この他に写真フイルムの透
過光を焼付レンズで感光材料に結像し焼付露光するアナ
ログ方式のプリントシステムに本発明を実施してもよ
い。この場合には、求めた類似判定結果を露光制御量に
反映させて、類似するシーンに対して同じような仕上が
りが得られるようにする。例えば、求めた類似度に基づ
いて複数画像間の画像処理条件が近づくように、複数画
像のうちのいずれかの画像処理条件を変更する。なお、
このように類似度に基づいて、複数画像間の画像処理条
件が近づくように、複数画像のうちのいずれかの画像処
理条件を変更することは、アナログプリント方式の他に
デジタルプリント方式で実施してもよい。
In the above embodiment, the present invention is applied to a digital print system. In addition, the present invention is applied to an analog print system in which transmitted light of a photographic film is imaged on a photosensitive material by a printing lens and printed. May be. In this case, the obtained similarity determination result is reflected in the exposure control amount so that a similar finish can be obtained for similar scenes. For example, one of the plurality of images is changed so that the image processing condition between the plurality of images approaches based on the obtained similarity. In addition,
Changing one of the image processing conditions of the plurality of images based on the similarity so that the image processing conditions of the plurality of images approach each other is performed by a digital print method in addition to the analog print method. You may.

【0089】上記実施形態ではプレスキャンデータに基
づきDXコードを判別したが、この他にバーコードリー
ダーを用いて、DXコードを写真フイルムから読み取
り、これに基づきフイルム種を判定して、非線形性補正
を行ってもよい。
In the above embodiment, the DX code is determined based on the pre-scan data. In addition, the DX code is read from the photographic film using a bar code reader, and the film type is determined based on the DX code to correct the nonlinearity. May be performed.

【0090】[0090]

【発明の効果】本発明によれば、各画像毎に、写真感光
材料の非線形性を補正して被写体の輝度に対して全露光
域でリニアになるように画像データを変換してから類似
シーンの判定を行うから、アンダー露光やオーバー露光
等のように撮影時の露光条件に影響を受けることなく、
適正に類似シーンを判定することができる。したがっ
て、同一シーンを露出条件を変えて撮影した場合であっ
ても、適正に同一シーンか否かを判別することができ
る。しかも、類似と判定されたコマに対してはプリント
仕上がりを均一にすることで、プリント品質が安定す
る。また、画像特徴量を濃度ヒストグラムとし、これの
差分やパターン認識によって類似度を判定することで、
類似しているか否かを精度良く判定することができる。
According to the present invention, for each image, the non-linearity of the photographic light-sensitive material is corrected, and the image data is converted so that the brightness of the subject becomes linear in the entire exposure range, and then the similar scene is obtained. Is determined, without being affected by the exposure conditions at the time of shooting, such as underexposure and overexposure, etc.
Similar scenes can be properly determined. Therefore, even when the same scene is photographed under different exposure conditions, it is possible to properly determine whether or not the scene is the same. In addition, the print quality is stabilized by making the print finish uniform for frames determined to be similar. In addition, the image feature amount is defined as a density histogram, and the similarity is determined based on a difference between the histogram and the pattern recognition.
It can be determined with high accuracy whether or not they are similar.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実施したデジタルラボシステムの概略
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a digital laboratory system embodying the present invention.

【図2】デジタルラボシステムの画像処理装置の概略構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of an image processing apparatus of the digital laboratory system.

【図3】画像処理装置のオートセットアップエンジン、
パソコンの機能をブロック毎に分けて示すとともに、イ
メージプロセサの内部構成を示すブロック図である。
FIG. 3 is an auto setup engine of the image processing apparatus,
FIG. 2 is a block diagram showing functions of a personal computer divided into blocks and showing an internal configuration of an image processor.

【図4】(A)は第1実施形態に係る特性データが表す
変換特性の一例、(B)は第2実施形態に係る特性デー
タが表す変換特性の一例を各々示す線図である。
FIG. 4A is a diagram illustrating an example of a conversion characteristic represented by characteristic data according to the first embodiment, and FIG. 4B is a diagram illustrating an example of a conversion characteristic represented by characteristic data according to the second embodiment;

【図5】(A)は処理対象の写真フイルムの露光量−発
色濃度特性の一例、(B)は仮想写真フイルムの露光量
−発色濃度特性の一例を各々示す線図である。
5A is a diagram illustrating an example of an exposure amount-coloring density characteristic of a photographic film to be processed, and FIG. 5B is a diagram illustrating an example of an exposure amount-coloring density characteristic of a virtual photographic film.

【図6】濃度ヒストグラムを用いて類似度を判定する処
理の説明図である。
FIG. 6 is an explanatory diagram of a process of determining a similarity using a density histogram.

【図7】セットアップ演算処理を示すフローチャートで
ある。
FIG. 7 is a flowchart illustrating a setup calculation process.

【図8】セットアップ演算処理を示すフローチャートで
ある。
FIG. 8 is a flowchart illustrating a setup calculation process.

【図9】セットアップ演算処理を示すフローチャートで
ある。
FIG. 9 is a flowchart illustrating a setup calculation process.

【図10】グレー候補点を抽出するための無彩色条件の
一例を示す線図である。
FIG. 10 is a diagram showing an example of an achromatic condition for extracting a gray candidate point.

【符号の説明】[Explanation of symbols]

10 デジタルラボシステム 11 ラインCCDスキャナ 12 画像処理装置 25 イメージプロセサ 30 オートセットアップエンジン 32 入出力コントローラ 40 パソコン Reference Signs List 10 digital laboratory system 11 line CCD scanner 12 image processing device 25 image processor 30 auto setup engine 32 input / output controller 40 personal computer

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE11 CE17 CH01 CH07 DA12 DB02 DB06 DB09 DC23 DC34 5C077 LL19 MM03 MP08 PP15 PP35 PP37 PQ12 PQ18 PQ19 PQ23 TT02  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE11 CE17 CH01 CH07 DA12 DB02 DB06 DB09 DC23 DC34 5C077 LL19 MM03 MP08 PP15 PP35 PP37 PQ12 PQ18 PQ19 PQ23 TT02

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像読取手段により写真感光材料に記録
されている複数の画像を読み取り、この読み取った画像
の画像データに基づき複数の画像が類似しているシーン
か否かを判定する類似シーンの判定方法において、前記
各画像に対し写真感光材料の非線形性を補正する変換処
理を行い、この非線形性の補正変換処理後の画像データ
に基づき画像特徴量を算出し、この画像特徴量により複
数の画像の類似度を算出することを特徴とする類似シー
ンの判定方法。
An image reading unit reads a plurality of images recorded on a photographic photosensitive material, and determines whether or not the plurality of images are similar based on image data of the read image. In the determination method, a conversion process for correcting the nonlinearity of the photographic light-sensitive material is performed on each of the images, an image feature amount is calculated based on the image data after the nonlinearity correction conversion process, and a plurality of image feature amounts are calculated based on the image feature amount. A method for determining a similar scene, comprising calculating a degree of similarity between images.
【請求項2】 前記写真感光材料の非線形性を補正する
変換処理は、写真感光材料の種類毎に記憶している変換
テーブルを用いることを特徴とする請求項1記載の類似
シーンの判定方法。
2. The similar scene judging method according to claim 1, wherein the conversion processing for correcting the nonlinearity of the photosensitive material uses a conversion table stored for each type of the photosensitive material.
【請求項3】 前記写真感光材料の非線形性を補正する
変換テーブルはシアン、マゼンタ、イエローの各色毎に
独立又は共通したものであることを特徴とする請求項2
記載の類似シーンの判定方法。
3. The conversion table for correcting non-linearity of the photographic light-sensitive material is independent or common for each color of cyan, magenta and yellow.
A method for determining the described similar scene.
【請求項4】 前記画像特徴量は濃度ヒストグラムであ
ることを特徴とする請求項1記載の類似シーンの判定方
法。
4. The method according to claim 1, wherein the image feature amount is a density histogram.
JP11196679A 1999-07-09 1999-07-09 Method for discriminating similar scene Pending JP2001024887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11196679A JP2001024887A (en) 1999-07-09 1999-07-09 Method for discriminating similar scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11196679A JP2001024887A (en) 1999-07-09 1999-07-09 Method for discriminating similar scene

Publications (1)

Publication Number Publication Date
JP2001024887A true JP2001024887A (en) 2001-01-26

Family

ID=16361801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11196679A Pending JP2001024887A (en) 1999-07-09 1999-07-09 Method for discriminating similar scene

Country Status (1)

Country Link
JP (1) JP2001024887A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122720A (en) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd Apparatus for selecting image of specific scene, program, and recording medium having program recorded thereon
JP2014143613A (en) * 2013-01-24 2014-08-07 Fujitsu Semiconductor Ltd Image processor, image processing method, program and imaging apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122720A (en) * 2003-09-25 2005-05-12 Fuji Photo Film Co Ltd Apparatus for selecting image of specific scene, program, and recording medium having program recorded thereon
JP4606828B2 (en) * 2003-09-25 2011-01-05 富士フイルム株式会社 Device for selecting an image of a specific scene, program, and recording medium recording the program
JP2014143613A (en) * 2013-01-24 2014-08-07 Fujitsu Semiconductor Ltd Image processor, image processing method, program and imaging apparatus

Similar Documents

Publication Publication Date Title
US7289664B2 (en) Method of detecting and correcting the red eye
US6747757B1 (en) Image processing method and apparatus
US6711285B2 (en) Method and apparatus for correcting the density and color of an image and storage medium having a program for executing the image correction
JP3903083B2 (en) Image processing apparatus, method, and recording medium
EP0961484A2 (en) Digital photofinishing system with digital image processing
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
JP2000106623A (en) Image processing unit
JP3588418B2 (en) Image correction method, image correction device, and recording medium
US7119923B1 (en) Apparatus and method for image processing
JPH11317863A (en) Image processing unit
JP2000069277A (en) Image processing unit
JP3576809B2 (en) Image processing device
US6710896B1 (en) Image processing apparatus
JP2001024887A (en) Method for discriminating similar scene
JPH11225270A (en) Image processing method and image processor
US20020012126A1 (en) Image processing method and apparatus
JP2001222710A (en) Device and method for image processing
JPH09102873A (en) Judgement method for exposure state of photograph
JP2000004361A (en) Image data correcting method and image processor
JPH11308474A (en) Image processor
JP2000004352A (en) Image processing method and image processor
JP3740150B2 (en) How to create an index print
JP2000004351A (en) Image processor
JP2000011140A (en) Image processor
JP2000278528A (en) Image processor and image processing method