JP2000004361A - Image data correcting method and image processor - Google Patents

Image data correcting method and image processor

Info

Publication number
JP2000004361A
JP2000004361A JP10168823A JP16882398A JP2000004361A JP 2000004361 A JP2000004361 A JP 2000004361A JP 10168823 A JP10168823 A JP 10168823A JP 16882398 A JP16882398 A JP 16882398A JP 2000004361 A JP2000004361 A JP 2000004361A
Authority
JP
Japan
Prior art keywords
image
image data
data
density
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10168823A
Other languages
Japanese (ja)
Inventor
Hiroshi Yamaguchi
博司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP10168823A priority Critical patent/JP2000004361A/en
Publication of JP2000004361A publication Critical patent/JP2000004361A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To acquire image data that accurately represents a subject image at the time of photographing from a read image data obtained by reading an image, which is exposed and recorded on photosensitive material and is visualized through development processing. SOLUTION: Characteristics data FilmDataj (d) which has conversion characteristics, that converts image data of a film image recorded on a photographic film into image data almost equal to image data of a virtual film image recorded on a virtual photographic film, having an exposure quantity-coloring density characteristics equal to characteristics obtd. by extending respectively linear parts of the exposure quantity-coloring density characteristics of the photographic film to an exposure quantity area where the characteristics become nonlinear is precalculated and nonlinear corrections that convert the image data by using the characteristics data are performed after performing the correction that corresponds to the bias of film base density to reference value. Furthermore, image data standardization, which corrects color balance of the image data in accordance with color balance of a gray candidate point in the image data, is performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像データ補正方法
及び画像処理装置に係り、特に、感光材料に露光記録さ
れ現像処理によって可視化された画像を読み取ることに
よって得られた画像データを補正する画像データ補正方
法、及び該画像データ補正方法を適用可能な画像処理装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image data correcting method and an image processing apparatus, and more particularly, to image data for correcting image data obtained by reading an image recorded on a photosensitive material by exposure and visualized by a developing process. The present invention relates to a correction method and an image processing apparatus to which the image data correction method can be applied.

【0002】[0002]

【従来の技術】従来より、写真フィルムに記録されてい
るフィルム画像を読み取ることによって得られた画像デ
ータや、デジタルカメラ等から入力された画像データに
対し、各種の画像処理を行った後に、印画紙等の記録材
料に画像を記録したり、ディスプレイ等の表示手段に画
像を表示したり、情報記録媒体に画像データを格納する
等のように、種々の出力形態で画像を出力可能な画像処
理システムが知られている。この画像処理システムによ
れば、フィルム画像を面露光により印画紙に記録する従
来の写真処理システムと比較して、画像データに対する
画像処理により画像処理システムから出力画像の画質を
自在にコントロールできるので、出力画像の高画質化を
実現できる。
2. Description of the Related Art Conventionally, after performing various image processing on image data obtained by reading a film image recorded on a photographic film or image data input from a digital camera or the like, printing is performed. Image processing capable of outputting images in various output forms, such as recording images on recording materials such as paper, displaying images on display means such as displays, and storing image data on information recording media. Systems are known. According to this image processing system, the image quality of an output image can be freely controlled from the image processing system by performing image processing on image data, as compared with a conventional photographic processing system that records a film image on photographic paper by surface exposure. Higher output image quality can be realized.

【0003】ところで、写真フィルムに記録されている
フィルム画像は、撮影時の撮影条件が不定であると共に
人物等の主要被写体に対する照明条件も一定ではないの
で、写真フィルムに記録されている多数のフィルム画像
の中には、撮影条件や主要被写体に対する照明条件等の
影響により、画質等が適正でないフィルム画像も含まれ
ている。例えばオーバ露光やアンダ露光で撮影されたフ
ィルム画像は、濃度が全体的に高いか又は低く、かつダ
イナミックレンジが圧縮された画像となる。このような
フィルム画像の画像データに対し、通常のフィルム画像
と同様の処理条件で画像処理を行ったとすると、出力画
像は低コントラストでメリハリのない画像となる。ま
た、逆光のシーンを撮影したフィルム画像や撮影時にス
トロボが使用されたフィルム画像は、フィルム画像中の
主要部と背景部の濃度が大きく相違していることが多
く、通常のフィルム画像と同様の処理条件で画像処理を
行ったとすると、出力画像上で主要画像部が不適切な濃
度となる。
[0003] A film image recorded on a photographic film has a large number of films recorded on a photographic film because the photographing conditions at the time of photographing are uncertain and the lighting conditions for a main subject such as a person are not constant. The images include film images whose image quality and the like are not appropriate due to the influence of shooting conditions, lighting conditions for the main subject, and the like. For example, a film image photographed by overexposure or underexposure has an overall high or low density and a compressed dynamic range. Assuming that image processing is performed on the image data of such a film image under the same processing conditions as a normal film image, the output image is a low-contrast image without sharpness. In addition, the film image of a backlight scene or a film image using a strobe at the time of shooting often has a large difference in density between a main part and a background part in the film image, and is similar to a normal film image. If image processing is performed under the processing conditions, the main image portion has an inappropriate density on the output image.

【0004】このため、本願発明者は、上記のようなフ
ィルム画像からも適正な画質の出力画像を得るために、
オーバ/アンダ、逆光やストロボ撮影等のフィルム画像
の状態を画像情報から判別し、画像情報及び判別した画
像状態に応じて、画像の中間濃度部分は変化させず、画
像の低濃度部分および/または高濃度部分をそれぞれ独
立に非線形に圧縮もしくは伸長するための処理条件を設
定し、この処理条件に応じた画像処理を行って出力画像
情報を生成する技術を提案している(特開平10−13
680号公報参照)。
[0004] For this reason, the inventor of the present application has sought to obtain an output image of appropriate image quality even from the above-mentioned film image.
The state of the film image such as over / under, backlight, or flash photography is determined from the image information, and the intermediate density part of the image is not changed according to the image information and the determined image state, and the low density part and / or the image of the image is not changed. Japanese Patent Laid-Open No. 10-13 proposes a technique for independently setting processing conditions for nonlinearly compressing or decompressing high-density portions and performing image processing in accordance with the processing conditions to generate output image information.
No. 680).

【0005】[0005]

【発明が解決しようとする課題】オーバ露光やアンダ露
光で撮影されたフィルム画像のコントラストが小さくな
るのは、オーバ或いはアンダに相当する露光量域におい
て、写真フィルムの露光量−発色濃度特性の変化の傾き
(γ)が、標準的な露光量域における変化の傾きに比較
して全体的に小さくなっていることに起因しているが、
写真フィルムの露光量−発色濃度特性は、このオーバ或
いはアンダに相当する露光量域内においても非線形に変
化している(露光量の変化に対し発色濃度の変化の傾き
(γ)が連続的に変化している)。これに対して前述の
公報に記載の技術は、画像情報のみから判別した画像状
態に応じて、フィルム画像の低濃度部分や高濃度部分を
単位として一律に階調を圧縮もしくは伸長する処理条件
を設定しているので、特にオーバ露光やアンダ露光で撮
影されたフィルム画像の画像情報に対しては、写真フィ
ルムの露光量−発色濃度特性に応じた正確な補正が行わ
れない場合も多い。
The decrease in the contrast of a film image photographed by overexposure or underexposure is caused by a change in the exposure amount-color density characteristic of a photographic film in an exposure region corresponding to overexposure or underexposure. Is generally smaller than the slope of change in the standard exposure amount range,
The exposure-color density characteristic of the photographic film changes non-linearly even within the exposure range corresponding to the over or under (the gradient (γ) of the color density change continuously changes with the exposure change). are doing). On the other hand, according to the technology described in the above-mentioned publication, processing conditions for uniformly compressing or expanding gradation in units of low-density portions or high-density portions of a film image according to an image state determined only from image information are set. Since the setting is set, in particular, image information of a film image photographed by overexposure or underexposure is often not accurately corrected in accordance with the exposure amount-coloring density characteristic of the photographic film.

【0006】また、写真フィルムの露光量−発色濃度特
性は、写真フィルムの種類毎に相違していると共に、厳
密には写真フィルムのロット単位でもばらつきがあり、
更に写真フィルム上での発色濃度は写真フィルムに対し
て現像処理を行った際の現像条件によっても変化する。
これに対して前述の公報に記載の技術は、画像情報のみ
から画像状態を判別して処理条件を設定しているので、
写真フィルムの種類毎に相違し、ロット単位でばらつ
き、かつ現像条件によって変化する写真フィルムの実際
の露光量−発色濃度特性が考慮されておらず、写真フィ
ルムの実際の露光量−発色濃度特性に応じた正確な補正
を行うことはできない。従って、前述の公報に記載の技
術を用いても、撮影時の被写体像を正確に表す出力画像
情報を常に得ることは困難であった。
In addition, the exposure-color density characteristics of a photographic film differ depending on the type of the photographic film, and strictly speaking, there are variations in photographic film lot units.
Further, the color density on a photographic film also changes depending on the developing conditions when the photographic film is subjected to a developing process.
On the other hand, the technique described in the above-mentioned publication determines the image state only from the image information and sets the processing condition,
The actual exposure-color density characteristics of the photographic film differ from each type of photographic film, vary from lot to lot, and vary depending on the development conditions. A corresponding accurate correction cannot be made. Therefore, it has been difficult to always obtain output image information that accurately represents a subject image at the time of shooting, even using the technique described in the above-mentioned publication.

【0007】本発明は上記事実を考慮して成されたもの
で、感光材料に露光記録され現像処理によって可視化さ
れた画像を読み取ることによって得られた読取画像デー
タから、露光記録時の被写体像を正確に表す画像データ
を取得することができる画像データ補正方法及び画像処
理装置を得ることが目的である。
The present invention has been made in view of the above-mentioned facts, and converts a subject image during exposure recording from read image data obtained by reading an image recorded on a photosensitive material by exposure and visualized by a development process. It is an object of the present invention to provide an image data correction method and an image processing device capable of acquiring image data that accurately represents an image.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る画像データ補正方法は、感
光材料の露光量−発色濃度特性に応じて定めた特性デー
タを感光材料の種類毎に記憶しておき、処理対象の感光
材料の種類に基づいて処理対象の感光材料に対応する特
性データを選択し、前記選択した特性データに基づい
て、前記処理対象の感光材料に露光記録され現像処理に
よって可視化された処理対象画像を読み取ることによっ
て得られた読取画像データが、前記感光材料の露光量−
発色濃度特性の線形部を前記特性が非線形となる露光量
域迄延長したに等しい露光量−発色濃度特性を有する仮
想感光材料に前記処理対象画像と同一の被写体を露光記
録し現像処理を行うことで得られる仮想画像を表す仮想
画像データと略等しくなるように、前記読取画像データ
に対して非線形性補正を行う。
According to a first aspect of the present invention, there is provided an image data correcting method, comprising the steps of: storing characteristic data defined in accordance with an exposure amount-color density characteristic of a photosensitive material; Stored for each type, select characteristic data corresponding to the photosensitive material to be processed based on the type of the photosensitive material to be processed, and record the exposure data on the photosensitive material to be processed based on the selected characteristic data. The read image data obtained by reading the processing target image visualized by the developing process is used to calculate the exposure amount of the photosensitive material−
Exposure recording and development of the same subject as the image to be processed on a virtual photosensitive material having an exposure-color density characteristic equal to the linear portion of the color density characteristic extended to an exposure region where the characteristic becomes non-linear. The non-linearity correction is performed on the read image data so that the read image data becomes substantially equal to the virtual image data representing the virtual image obtained in step (1).

【0009】請求項1記載の発明では、感光材料の露光
量−発色濃度特性に応じて定めた特性データを感光材料
の種類毎に記憶している。特性データは、感光材料の露
光量−発色濃度特性そのものを表すデータであってもよ
いし、感光材料の露光量−発色濃度特性に応じて定め
た、感光材料に記録された画像の濃度を仮想感光材料
(前記感光材料の露光量−発色濃度特性の線形部を前記
特性が非線形となる露光量域迄延長したに等しい露光量
−発色濃度特性を有する仮想的な感光材料)に記録され
た仮想画像の濃度に変換するための変換条件を表すデー
タであってもよい。また、感光材料がカラー感光材料の
場合、前記特性データは、例えば各成分色毎の露光量−
発色濃度特性に応じて各成分色毎に定めてもよいし、基
準成分色(例えばG)の特性データについては基準成分
色の露光量−発色濃度特性に応じて定め、基準成分色以
外の他の成分色(例えばRやB)の特性データについて
は、基準成分色の露光量−発色濃度特性と他の成分色の
露光量−発色濃度特性との差に応じて定めてもよい。
According to the first aspect of the present invention, characteristic data determined according to the exposure amount-coloring density characteristic of the photosensitive material is stored for each type of photosensitive material. The characteristic data may be data representing the exposure amount-coloring density characteristic itself of the photosensitive material, or the image density recorded on the photosensitive material, which is determined according to the exposure amount-coloring density characteristic of the photosensitive material. A virtual material recorded on a photosensitive material (a virtual photosensitive material having an exposure-color density characteristic equal to the linear portion of the exposure-color density characteristic of the photosensitive material extended to an exposure region where the characteristic becomes nonlinear). It may be data representing a conversion condition for converting to image density. When the photosensitive material is a color photosensitive material, the characteristic data is, for example, an exposure amount for each component color.
It may be determined for each component color according to the color density characteristic, or the characteristic data of the reference component color (for example, G) is determined according to the exposure-color density characteristic of the reference component color. The characteristic data of the component colors (for example, R and B) may be determined according to the difference between the exposure amount-coloring density characteristic of the reference component color and the exposure amount-coloring density characteristic of the other component colors.

【0010】請求項1の発明は、上述した特性データを
用い、処理対象の感光材料の種類に基づいて処理対象の
感光材料に対応する特性データを選択し、選択した特性
データに基づいて、処理対象の感光材料に露光記録され
現像処理によって可視化された処理対象画像を読み取る
ことによって得られた読取画像データが、処理対象の感
光材料の露光量−発色濃度特性の線形部を前記特性が非
線形となる露光量域迄延長したに等しい露光量−発色濃
度特性を有する仮想感光材料に前記処理対象画像と同一
の被写体を露光記録し現像処理を行うことで得られる仮
想画像を表す仮想画像データと略等しくなるように、読
取画像データに対して非線形性補正を行う。
According to a first aspect of the present invention, characteristic data corresponding to a photosensitive material to be processed is selected based on the type of the photosensitive material to be processed using the above-described characteristic data, and processing is performed based on the selected characteristic data. The read image data obtained by reading the processing target image that has been exposed and recorded on the target photosensitive material and visualized by the development process, the linear portion of the exposure-coloring density characteristic of the processing target photosensitive material has a non-linear characteristic. Virtual image data representing a virtual image obtained by exposing and recording the same subject as the image to be processed on a virtual photosensitive material having an exposure amount-coloring density characteristic equal to that extended to a certain exposure amount region and performing development processing. The non-linearity correction is performed on the read image data so as to be equal.

【0011】上記の非線形性補正は、例えば特性データ
として、前述のように画像濃度を仮想画像の濃度に変換
する変換条件を表すデータを用いる場合には、このデー
タが表す変換条件に従って読取画像データを変換するこ
とで行うことができる。また、特性データとして感光材
料の露光量−発色濃度特性そのものを表すデータを用い
る場合には、例えば該特性データが表す露光量−発色濃
度特性に基づいて、前記特性の線形部を前記特性が非線
形となる露光量域迄延長したに等しい露光量−発色濃度
特性(仮想感光材料の露光量−発色濃度特性)を求め、
双方の特性に基づき同一の露光量に対する処理対象の感
光材料の発色濃度と仮想感光材料の発色濃度とを全露光
量域に亘って対応付けることで、処理対象の感光材料上
の画像の濃度を仮想感光材料上の仮想画像の濃度に変換
する変換条件を求め、該変換条件に従って読取画像デー
タを変換することで非線形性補正を行うことができる。
In the above-described nonlinearity correction, for example, when data representing a conversion condition for converting an image density into a virtual image density is used as the characteristic data as described above, the read image data is read in accordance with the conversion condition represented by the data. Can be performed by converting When data representing the exposure amount-coloring density characteristic of the photosensitive material itself is used as the characteristic data, for example, based on the exposure amount-coloring density characteristic represented by the characteristic data, the linear part of the characteristic is converted to a non-linear characteristic. Exposure amount-coloring density characteristic (exposure amount-virtual light-sensitive density characteristic of virtual photosensitive material) equal to the exposure amount range extended to
By associating the color density of the photosensitive material to be processed with the same exposure amount and the color density of the virtual photosensitive material over the entire exposure range based on both characteristics, the density of the image on the photosensitive material to be processed can be virtually determined. Non-linearity correction can be performed by determining a conversion condition for converting the density of the virtual image on the photosensitive material and converting the read image data in accordance with the conversion condition.

【0012】請求項1の発明は、感光材料の種類毎に特
性データを記憶しておき、処理対象の感光材料の種類に
基づいて特性データを選択し、選択した特性データに基
づいて上述した非線形性補正を行うので、この非線形性
補正により、処理対象の感光材料の露光量−発色濃度特
性の非線形性に起因する濃度の変化が補正されることに
なる。従って請求項1の発明によれば、感光材料に露光
記録され現像処理によって可視化された画像を読み取る
ことによって得られた読取画像データから、感光材料の
露光量−発色濃度特性の感光材料の種類毎の相違に拘ら
ず、露光記録時の被写体像を正確に表す画像データを取
得することができる。
According to the first aspect of the present invention, characteristic data is stored for each type of photosensitive material, and characteristic data is selected based on the type of photosensitive material to be processed, and the nonlinear data described above is selected based on the selected characteristic data. Since the characteristic correction is performed, a change in density due to the non-linearity of the exposure-color density characteristic of the photosensitive material to be processed is corrected by the non-linear correction. Therefore, according to the first aspect of the present invention, from the read image data obtained by reading the image recorded on the photosensitive material by exposure and visualized by the developing process, the exposure amount of the photosensitive material-color developing density characteristic for each type of photosensitive material Regardless of the difference, image data that accurately represents the subject image at the time of exposure recording can be obtained.

【0013】なお、特性データは、先にも述べたように
感光材料の露光量−発色濃度特性そのものを表すデータ
であってもよいが、請求項2に記載したように、感光材
料に記録された画像の濃度を仮想感光材料に記録された
仮想画像の濃度に変換するための変換条件を表すデータ
であることが好ましい。これにより、特性データが表す
変換条件に従って読取画像データを変換することによっ
て非線形性補正を行うことができるので、非線形性補正
を短時間で行うことができる。
The characteristic data may be data representing the exposure-color density characteristic itself of the photosensitive material as described above, but may be recorded on the photosensitive material as described in claim 2. It is preferable that the data is data representing a conversion condition for converting the density of the obtained image into the density of the virtual image recorded on the virtual photosensitive material. Accordingly, since the non-linearity can be corrected by converting the read image data according to the conversion condition represented by the characteristic data, the non-linearity can be corrected in a short time.

【0014】ところで、写真フィルム等の感光材料の露
光量−発色濃度特性は、一般にアンダ露光やオーバ露光
に相当する露光量域で非線形となるが、この特性が非線
形となる露光量域におけるγ(露光量の変化に対する発
色濃度の変化の傾き)は、特性の線形性が維持されてい
る露光量域におけるγよりも小さいことが多い。従って
非線形性補正では、露光量−発色濃度特性が非線形とな
る濃度域の画像データに対しては、階調を硬調にする方
向に補正することになるが、この硬調化に伴い、画像デ
ータが表す画像が、フィルムの粒状が過度に強調された
好ましくない画調となることも考えられる。
The exposure-coloring density characteristic of a photosensitive material such as a photographic film is generally nonlinear in an exposure region corresponding to underexposure or overexposure. The gradient of the change in the color density with respect to the change in the exposure amount is often smaller than γ in the exposure region where the linearity of the characteristic is maintained. Therefore, in the non-linearity correction, the image data in the density range where the exposure amount-coloring density characteristic is non-linear is corrected in a direction in which the gradation is hardened. It is also conceivable that the image represented has an undesired tone with excessively enhanced graininess of the film.

【0015】このため、請求項3記載の発明は、請求項
2に記載の変換条件を、変換特性の勾配が予め定められ
た最大値以下となるように定めることを特徴としてい
る。このように、変換特性の勾配を制限することによ
り、画像データが表す画像がフィルムの粒状が過度に強
調された好ましくない画調となるように画像データが変
換されることを防止することができる。
For this reason, the invention according to claim 3 is characterized in that the conversion condition according to claim 2 is determined such that the gradient of the conversion characteristic is equal to or less than a predetermined maximum value. As described above, by limiting the gradient of the conversion characteristic, it is possible to prevent the image data from being converted so that the image represented by the image data has an undesired image in which the graininess of the film is excessively emphasized. .

【0016】請求項4記載の発明は、請求項1の発明に
おいて、感光材料は写真フィルムであり、非線形性補正
の実行に先立ち、処理対象の写真フィルムのフィルムベ
ースの濃度を検知し、検知したフィルムベースの濃度
が、写真フィルムの特性データによって定義されるフィ
ルムベースの濃度に略一致するように、読取画像データ
又は写真フィルムの特性データを予め補正することを特
徴としている。
According to a fourth aspect of the present invention, in the first aspect of the invention, the photosensitive material is a photographic film, and the density of the film base of the photographic film to be processed is detected and detected prior to execution of the nonlinearity correction. It is characterized in that the read image data or the characteristic data of the photographic film is corrected in advance so that the density of the film base substantially matches the density of the film base defined by the characteristic data of the photographic film.

【0017】写真フィルムのフィルムベースの濃度は写
真フィルムに対して現像処理を行った際の現像条件によ
って変動し、このフィルムベースの濃度の変動は読取画
像データにオフセットとして加わる。これに対し請求項
4の発明では、非線形性補正の実行に先立ち、処理対象
の写真フィルムのフィルムベースの濃度を検知し、検知
したフィルムベースの濃度と、写真フィルムの特性デー
タによって定義されるフィルムベースの濃度との差分に
応じて、読取画像データ又は写真フィルムの特性データ
を予め補正するので、処理対象の写真フィルムに対して
現像処理が行われた際の現像条件が標準現像条件と相違
していたとしても、この現像条件の相違によるフィルム
ベースの濃度変動が補正されることになる。従って、請
求項4の発明によれば、露光記録時の被写体像を表す画
像データから、現像条件の変動に起因する写真フィルム
のフィルムベース濃度の変動による影響を排除すること
ができる。
The density of the film base of the photographic film varies depending on the developing conditions when the photographic film is subjected to the development processing, and the variation in the density of the film base is added to the read image data as an offset. On the other hand, in the invention of claim 4, prior to execution of the non-linearity correction, the density of the film base of the photographic film to be processed is detected, and the film density defined by the detected density of the film base and the characteristic data of the photographic film. Since the read image data or the characteristic data of the photographic film is corrected in advance according to the difference from the density of the base, the developing conditions when the developing process is performed on the photographic film to be processed are different from the standard developing conditions. Even if it is, the density fluctuation of the film base due to the difference of the developing condition is corrected. Therefore, according to the fourth aspect of the present invention, it is possible to eliminate the influence of the fluctuation of the film base density of the photographic film caused by the fluctuation of the developing condition from the image data representing the subject image at the time of the exposure recording.

【0018】なお、写真フィルムに記録されている画像
の読み取りは光学的に行う(例えば光源から射出された
光を写真フィルム上の画像が記録されている部分に照射
し、写真フィルムを透過(又は反射)した光の光量をセ
ンサで検出する)ことが多いが、処理対象画像を読み取
る際に光源から射出される光の光量が所定の光量と相違
していた場合にも、この光量の相違が読取画像データに
オフセットとして加わる。このため、請求項4の発明に
おいて、処理対象画像の読み取りに用いた光源及びセン
サを用いてフィルムベースの濃度を測定するか、或いは
読取画像データにフィルムベースの濃度を表すデータが
含まれているのであれば、フィルムベースの濃度の測定
に代えて読取画像データからフィルムベースの濃度を表
すデータを抽出するようにすれば、請求項4に記載の補
正により、処理対象画像の読み取りに用いた光源からの
射出光量の変化に起因する読取画像データのオフセット
も併せて補正することができる。
The image recorded on the photographic film is read optically (for example, light emitted from a light source is applied to a portion of the photographic film where the image is recorded, and transmitted through the photographic film (or In many cases, the amount of reflected light is detected by a sensor). Even when the amount of light emitted from the light source when reading the image to be processed is different from the predetermined amount, this difference in the amount of light is It is added to the read image data as an offset. Therefore, in the invention according to claim 4, the density of the film base is measured using the light source and the sensor used for reading the image to be processed, or the read image data includes data representing the density of the film base. In this case, if the data representing the film base density is extracted from the read image data instead of the measurement of the film base density, the light source used for reading the image to be processed by the correction according to claim 4 The offset of the read image data due to the change in the amount of light emitted from the camera can also be corrected.

【0019】ところで、カラー感光材料の露光量−発色
濃度特性は、元々(標準現像条件で現像処理された場合
であっても)各成分色毎に相違していると共に、感光材
料に対して現像処理が行われた際の現像条件が変化する
と、カラー感光材料の実際の露光量−発色濃度特性は更
に各成分色毎に別々に変動する。感光材料に記録された
画像の色バランスは、露光量−発色濃度特性の各成分色
毎の相違により、露光記録時の被写体像の色バランスに
対して偏倚する。このため、請求項5記載の発明は、請
求項1の発明において、少なくとも読取画像データに基
づいて画像データの各成分色毎の濃度バランスを補正す
る画像データの規格化を、非線形性補正を行う前の読取
画像データ、又は非線形性補正を行うことで得られた画
像データに対して行うことを特徴としている。
Incidentally, the exposure amount-coloring density characteristic of a color photosensitive material is originally different for each component color (even when developed under standard developing conditions), and the light- When the developing conditions at the time of processing are changed, the actual exposure amount-coloring density characteristic of the color photosensitive material further varies separately for each component color. The color balance of the image recorded on the photosensitive material deviates from the color balance of the subject image at the time of exposure recording due to the difference between the exposure amount and the color density characteristic of each component color. Therefore, in the invention according to claim 5, in the invention according to claim 1, normalization of the image data for correcting the density balance of each component color of the image data based on at least the read image data and non-linearity correction are performed. It is characterized in that it is performed on the previously read image data or image data obtained by performing the non-linearity correction.

【0020】読取画像データが表す処理対象画像の色バ
ランスは、現像条件の変動の影響を受けて変化する感光
材料の実際の露光量−発色濃度特性を反映したものとな
っており、露光記録時の被写体像上で無彩色の部分に対
応する処理対象画像上の画素の色バランスは、感光材料
の実際の露光量−発色濃度特性の各成分色毎の差を表し
ている。従って、少なくとも読取画像データに基づい
て、画像データの各成分色毎の濃度バランスを補正する
画像データの規格化を行うことにより、感光材料の元々
の露光量−発色濃度特性の各成分色毎の相違や、現像条
件の変動に起因する各成分色毎の露光量−発色濃度特性
の相違によって生ずる処理対象画像の各成分色毎の濃度
バランスの偏倚を補正することができる。
The color balance of the image to be processed represented by the read image data reflects the actual exposure amount-color density characteristic of the photosensitive material which changes under the influence of the development condition fluctuation. The color balance of the pixels on the processing target image corresponding to the achromatic portion on the subject image indicates the difference between the actual exposure amount and the color density characteristic of the photosensitive material for each component color. Therefore, by standardizing image data for correcting the density balance of each component color of the image data based on at least the read image data, the original exposure amount-coloring density characteristic of the photosensitive material for each component color can be obtained. It is possible to correct the deviation of the density balance of each component color of the processing target image caused by the difference and the difference of the exposure amount-coloring density characteristic of each component color due to the fluctuation of the development condition.

【0021】このように、請求項5の発明によれば、露
光記録時の被写体像を表す画像データの各成分色毎の濃
度バランスを適正にすることができる。なお、少なくと
も読取画像データに基づいて画像データの各成分色毎の
濃度バランスを補正する画像データの規格化は、例えば
読取画像データから被写体像上での色相が無彩色と推定
される画素のデータを抽出し、該画素の各成分色毎の濃
度バランスに基づいて画像データに対する濃度バランス
の補正量を決定し、決定した補正量に基づいて画像デー
タを補正することで行うことができる。
As described above, according to the fifth aspect of the present invention, the density balance of each component color of the image data representing the subject image at the time of exposure recording can be made appropriate. The standardization of image data for correcting the density balance of each component color of the image data based on at least the read image data is performed, for example, on the basis of pixel data whose hue on the subject image is estimated to be achromatic from the read image data. Is extracted, a correction amount of the density balance for the image data is determined based on the density balance of each component color of the pixel, and the image data is corrected based on the determined correction amount.

【0022】また、処理対象画像の画像内容(感光材料
に露光記録される被写体像)は不定であるので、読取画
像データのみに基づいて各成分色毎の濃度バランスを補
正した場合、処理対象画像の画像内容によっては補正精
度が大幅に低下することがある。このため、請求項6記
載の発明は、感光材料の露光量−発色濃度特性に応じて
定めた特性データを感光材料の種類毎に記憶しておき、
処理対象の感光材料に露光記録され現像処理によって可
視化された処理対象画像を読み取ることによって得られ
た読取画像データを用いて前記処理対象画像を解析し、
前記解析の結果に基づき、前記読取画像データに基づく
規格化及び前記特性データに基づく規格化に対する重み
を各々決定し、決定した重みに従い前記読取画像データ
に基づく規格化及び前記特性データに基づく規格化の重
み付けを行って画像データの各成分色毎の濃度バランス
を補正する画像データの規格化を行う。
Further, since the image content of the processing target image (the subject image exposed and recorded on the photosensitive material) is undefined, if the density balance of each component color is corrected based only on the read image data, the processing target image Depending on the image content, the correction accuracy may be significantly reduced. For this reason, the invention according to claim 6 stores characteristic data determined according to the exposure amount-coloring density characteristic of the photosensitive material for each type of photosensitive material,
Analyzing the processing target image using the read image data obtained by reading the processing target image visualized by exposure processing is recorded on the photosensitive material of the processing target, and developed,
Based on the result of the analysis, a weight for each of the normalization based on the read image data and the standardization based on the characteristic data is determined, and the normalization based on the read image data and the normalization based on the characteristic data are determined according to the determined weight. The image data for correcting the density balance of each component color of the image data by performing weighting of the image data is normalized.

【0023】特性データは感光材料の露光量−発色濃度
特性に応じて定めたデータであるので、特性データに基
づいて画像データの各成分色毎の濃度バランスを補正す
る画像データの規格化を行った場合、少なくとも感光材
料の元々の露光量−発色濃度特性の各成分色毎の相違に
よって生ずる各成分色毎の濃度バランスの偏倚を補正す
ることができる。請求項6記載の発明では、処理対象画
像を解析した結果に基づいて読取画像データに基づく規
格化及び特性データに基づく規格化に対する重みを各々
決定し、決定した重みに従い双方の規格化の重み付けを
行って画像データの規格化を行うので、処理対象画像
が、読取画像データのみに基づいて各成分色毎の濃度バ
ランスを補正した場合に補正精度が大幅に低下する画像
内容である等の場合にも、各成分色毎の濃度バランスの
補正精度が大幅に低下することを回避することができ
る。従って請求項6記載の発明によれば、読取画像デー
タから露光記録時の被写体像を正確に表す画像データを
取得することができる。
Since the characteristic data is data determined according to the exposure-color density characteristic of the photosensitive material, the image data for correcting the density balance of each component color of the image data is standardized based on the characteristic data. In this case, it is possible to correct at least the deviation of the density balance of each component color caused by the difference of the original exposure amount-coloring density characteristic of the photosensitive material for each component color. In the invention according to claim 6, weights for normalization based on read image data and normalization based on characteristic data are respectively determined based on a result of analyzing a processing target image, and weights for both normalizations are determined according to the determined weights. Since the image data is normalized by performing the correction, when the image to be processed has an image content in which the correction accuracy is significantly reduced when the density balance of each component color is corrected based only on the read image data, etc. In addition, it is possible to prevent the accuracy of correcting the density balance of each component color from being significantly reduced. Therefore, according to the sixth aspect of the present invention, it is possible to acquire image data that accurately represents a subject image at the time of exposure recording from read image data.

【0024】なお、読取画像データに基づく規格化及び
特性データに基づく規格化の重み付けを行って画像デー
タを規格化することは、具体的には、例えば読取画像デ
ータに基づいて規格化条件を求めると共に特性データに
基づいて規格化条件を求め、決定した重みに従って双方
の規格化条件の加重平均を演算し、演算によって得られ
た規格化条件に従って画像データの各成分色毎の濃度バ
ランスを補正することで行うことができる。
To normalize image data by weighting the normalization based on the read image data and the normalization based on the characteristic data, specifically, for example, a normalization condition is obtained based on the read image data. In addition, a normalization condition is obtained based on the characteristic data, a weighted average of the two normalization conditions is calculated according to the determined weight, and the density balance of each component color of the image data is corrected according to the normalization condition obtained by the calculation. That can be done.

【0025】また、前述の請求項5の発明において、上
記のように、読取画像データを用いて処理対象画像を解
析した結果に基づき、読取画像データに基づく規格化及
び特性データに基づく規格化に対する重みを各々決定
し、決定した重みに従い読取画像データに基づく規格化
及び特性データに基づく規格化の重み付けを行って画像
データの規格化を行うようにしてもよいことは言うまで
もない。
According to the fifth aspect of the present invention, as described above, the standardization based on the read image data and the standardization based on the characteristic data are performed based on the result of analyzing the processing target image using the read image data. Needless to say, the weights may be determined, and the normalization based on the read image data and the normalization based on the characteristic data may be weighted in accordance with the determined weights to normalize the image data.

【0026】ところで、読取画像データに基づいて求め
た規格化条件による補正精度については、処理対象画像
の画像内容を規定する種々のパラメータから推定可能で
あるが、特に、読取画像データから被写体像上での色相
が無彩色と推定される画素のデータを抽出し、該画素の
各成分色毎の濃度バランスに基づいて画像データに対す
る規格化条件を決定する場合には、読取画像データに基
づく規格化条件及び特性データに基づく規格化条件に対
する重みは、請求項7に記載したように、処理対象画像
の解析として、読取画像データから被写体像上での色相
が無彩色と推定される画素のデータの抽出を行い、抽出
した画素の数に基づいて決定することが好ましい。
By the way, the correction accuracy based on the standardization condition obtained based on the read image data can be estimated from various parameters that define the image content of the image to be processed. In the case where the data of the pixel whose hue is estimated to be an achromatic color is extracted and the normalization condition for the image data is determined based on the density balance of each component color of the pixel, the normalization based on the read image data is performed. As described in claim 7, the weight for the normalization condition based on the condition and the characteristic data is, as analysis of the processing target image, the data of the pixel whose hue on the subject image is estimated to be an achromatic color from the read image data. It is preferable to perform extraction and determine based on the number of extracted pixels.

【0027】被写体像上での色相が無彩色と推定される
画素のデータの抽出については従来より種々の手法が提
案されているが、何れの手法を適用したとしても、抽出
した画素の中に被写体像上での色相が非無彩色の画素が
混在している可能性がある。従って、被写体像上での色
相が無彩色と推定される画素のデータを多数抽出し、抽
出した多数の画素のデータが表す平均的な濃度バランス
に基づいて規格化条件を求めることが望ましい。しか
し、被写体像上での色相が無彩色と推定される画素とし
て抽出された画素の数が少数であった場合、読取画像デ
ータに基づいて求めた規格化条件による補正精度が低下
する可能性が高い。
Various methods have been conventionally proposed for extracting data of pixels whose hue on the subject image is estimated to be achromatic. There is a possibility that pixels having a non-achromatic color on the subject image are mixed. Therefore, it is desirable to extract a large number of data of pixels whose hue on the subject image is estimated to be achromatic, and obtain the standardization condition based on an average density balance represented by the data of the extracted many pixels. However, if the number of pixels extracted as pixels whose hue on the subject image is estimated to be achromatic is small, the correction accuracy based on the standardization condition obtained based on the read image data may be reduced. high.

【0028】これに対し、処理対象画像の解析として、
読取画像データから被写体像上での色相が無彩色と推定
される画素のデータの抽出を行い、抽出した画素の数に
基づいて読取画像データに基づく規格化条件及び特性デ
ータに基づく規格化条件の重みを決定する(より詳しく
は、抽出した画素の数が少なくなるに従って読取画像デ
ータに基づく規格化条件の重みを小さくする)ようにす
れば、常に高い補正精度で画像データの各成分色毎の濃
度バランスを補正することができる。
On the other hand, as an analysis of the image to be processed,
Based on the read image data, the data of the pixel whose hue on the subject image is estimated to be achromatic is extracted, and the normalization condition based on the read image data and the normalization condition based on the characteristic data are determined based on the number of extracted pixels. If the weight is determined (more specifically, the weight of the normalization condition based on the read image data is reduced as the number of extracted pixels is reduced), it is always possible to obtain a high correction accuracy for each component color of the image data. The density balance can be corrected.

【0029】請求項8記載の発明に係る画像処理装置
は、感光材料の露光量−発色濃度特性に応じて定めた特
性データを感光材料の種類毎に記憶する記憶手段と、処
理対象の感光材料の種類に基づいて、前記記憶手段に記
憶されている特性データのうち処理対象の感光材料に対
応する特性データを選択する選択手段と、前記処理対象
の感光材料に露光記録され現像処理によって可視化され
た処理対象画像を読み取る読取手段と、前記選択した特
性データに基づいて、前記読取手段が処理対象画像を読
み取ることによって得られた読取画像データが、前記感
光材料の露光量−発色濃度特性の線形部を前記特性が非
線形となる露光量域迄延長したに等しい露光量−発色濃
度特性を有する仮想感光材料に前記処理対象画像と同一
の被写体を露光記録し現像処理を行うことで得られる仮
想画像を表す仮想画像データと略等しくなるように、前
記読取画像データに対して非線形性補正を行う補正手段
と、を含んで構成している。
According to an eighth aspect of the present invention, there is provided an image processing apparatus, comprising: storage means for storing, for each type of photosensitive material, characteristic data determined in accordance with the exposure-color density characteristic of the photosensitive material; Selecting means for selecting characteristic data corresponding to the photosensitive material to be processed among the characteristic data stored in the storage means, based on the type of the photosensitive material, and exposing and recording the photosensitive material to be processed and visualized by development processing. Reading means for reading the image to be processed, and, based on the selected characteristic data, read image data obtained by reading the image to be processed by the reading means, the linearity of the exposure-color density characteristic of the photosensitive material. Exposure recording of the same subject as the image to be processed on a virtual photosensitive material having an exposure-color density characteristic equal to that obtained by extending the portion to an exposure area where the characteristic becomes nonlinear. To be substantially equal to the virtual image data representing a virtual image obtained by performing a development process, it is configured to include a correction means for performing nonlinear correction on the read image data.

【0030】請求項8記載の発明では、感光材料の露光
量−発色濃度特性に応じて定めた特性データが感光材料
の種類毎に記憶手段に記憶されており、選択手段によっ
て選択された処理対象の感光材料に対応する特性データ
に基づいて、読取手段が処理対象画像を読み取ることに
よって得られた読取画像データが、感光材料の露光量−
発色濃度特性の線形部を前記特性が非線形となる露光量
域迄延長したに等しい露光量−発色濃度特性を有する仮
想感光材料に処理対象画像と同一の被写体を露光記録し
現像処理を行うことで得られる仮想画像を表す仮想画像
データと略等しくなるように、補正手段により読取画像
データに対して非線形性補正が行われるので、請求項1
の発明と同様に、感光材料に露光記録され現像処理によ
って可視化された画像を読み取ることによって得られた
読取画像データから、露光記録時の被写体像を正確に表
す画像データを取得することができる。
According to the present invention, the characteristic data determined in accordance with the exposure amount-color density characteristic of the photosensitive material is stored in the storage means for each type of the photosensitive material, and the processing object selected by the selection means is selected. The read image data obtained by reading the image to be processed by the reading unit based on the characteristic data corresponding to
By exposing and recording the same subject as the image to be processed on a virtual photosensitive material having the same exposure-color density characteristics as the linear portion of the color density characteristics extended to the exposure region where the characteristics become non-linear, and performing development processing. 2. A non-linearity correction is performed on read image data by a correction unit so as to be substantially equal to virtual image data representing an obtained virtual image.
Similarly to the invention, image data accurately representing a subject image at the time of exposure recording can be acquired from read image data obtained by reading an image exposed and recorded on a photosensitive material and visualized by a development process.

【0031】[0031]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0032】〔第1実施形態〕まず本発明に係る画像処
理装置を含んで構成された、本第1実施形態に係るディ
ジタルラボシステムについて説明する。
[First Embodiment] First, a digital lab system according to a first embodiment including an image processing apparatus according to the present invention will be described.

【0033】(システム全体の概略構成)図1には本実
施形態に係るディジタルラボシステム10の概略構成が
示されており、図2にはディジタルラボシステム10の
外観が示されている。図1に示すように、このラボシス
テム10は、ラインCCDスキャナ14、画像処理部1
6、レーザプリンタ部18、及びプロセッサ部20を含
んで構成されており、ラインCCDスキャナ14と画像
処理部16は、図2に示す入力部26として一体化され
ており、レーザプリンタ部18及びプロセッサ部20
は、図2に示す出力部28として一体化されている。
(Schematic Configuration of Entire System) FIG. 1 shows a schematic configuration of a digital laboratory system 10 according to the present embodiment, and FIG. 2 shows an appearance of the digital laboratory system 10. As shown in FIG. 1, the lab system 10 includes a line CCD scanner 14, an image processing unit 1
6, a laser printer section 18 and a processor section 20. The line CCD scanner 14 and the image processing section 16 are integrated as an input section 26 shown in FIG. Part 20
Are integrated as an output unit 28 shown in FIG.

【0034】ラインCCDスキャナ14は、写真フィル
ム(例えばネガフィルムやリバーサルフィルム)等の写
真感光材料(以下、単に「写真フィルム」と称する)に
記録されているフィルム画像(被写体を撮影後、現像処
理されることで可視化されたネガ画像又はポジ画像)を
読み取るためのものであり、例えば135サイズの写真
フィルム、110サイズの写真フィルム、及び透明な磁
気層が形成された写真フィルム(240サイズの写真フ
ィルム:所謂APSフィルム)、120サイズ及び22
0サイズ(ブローニサイズ)の写真フィルムのフィルム
画像を読取対象とすることができる。ラインCCDスキ
ャナ14は、上記の読取対象のフィルム画像を3ライン
カラーCCDで読み取り、R、G、Bの画像データを出
力する。
The line CCD scanner 14 scans a film image (photographing an object, developing processing, For example, a 135-size photographic film, a 110-size photographic film, and a photographic film on which a transparent magnetic layer is formed (a 240-size photograph) Film: so-called APS film), 120 size and 22
A film image of a photographic film of size 0 (Brownie size) can be read. The line CCD scanner 14 reads the film image to be read by a three-line color CCD, and outputs R, G, and B image data.

【0035】図2に示すように、ラインCCDスキャナ
14は作業テーブル30に取り付けられている。画像処
理部16は、作業テーブル30の下方側に形成された収
納部32内に収納されており、収納部32の開口部には
開閉扉34が取り付けられている。収納部32は、通常
は開閉扉34によって内部が隠蔽された状態となってお
り、開閉扉34が回動されると内部が露出され、画像処
理部16の取り出しが可能な状態となる。
As shown in FIG. 2, the line CCD scanner 14 is mounted on a work table 30. The image processing section 16 is stored in a storage section 32 formed below the work table 30, and an opening / closing door 34 is attached to an opening of the storage section 32. Normally, the inside of the storage unit 32 is concealed by the open / close door 34, and when the open / close door 34 is rotated, the inside is exposed, and the image processing unit 16 can be taken out.

【0036】また作業テーブル30には、奥側にディス
プレイ164が取り付けられていると共に、2種類のキ
ーボード166A、166Bが併設されている。一方の
キーボード166Aは作業テーブル30に埋設されてい
る。他方のキーボード166Bは、不使用時には作業テ
ーブル30の引出し36内に収納され、使用時には引出
し36から取り出されてキーボード166A上に重ねて
配置されるようになっている。キーボード166Bの使
用時には、キーボード166Bから延びるコード(信号
線)の先端に取り付けられたコネクタ(図示省略)が、
作業テーブル30に設けられたジャック37に接続され
ることにより、キーボード166Bがジャック37を介
して画像処理部16と電気的に接続される。
The work table 30 has a display 164 on the back side and two types of keyboards 166A and 166B. One keyboard 166 </ b> A is embedded in the work table 30. The other keyboard 166B is housed in the drawer 36 of the work table 30 when not in use, and is taken out of the drawer 36 when used and is arranged on the keyboard 166A. When the keyboard 166B is used, a connector (not shown) attached to the tip of a cord (signal line) extending from the keyboard 166B,
The keyboard 166 </ b> B is electrically connected to the image processing unit 16 via the jack 37 by being connected to the jack 37 provided on the work table 30.

【0037】また、作業テーブル30の作業面30U上
にはマウス40が配置されている。マウス40は、コー
ド(信号線)が作業テーブル30に設けられた孔42を
介して収納部32内へ延設されており、画像処理部16
と接続されている。マウス40は、不使用時はマウスホ
ルダ40Aに収納され、使用時はマウスホルダ40Aか
ら取り出されて、作業面30U上に配置される。
A mouse 40 is arranged on the work surface 30U of the work table 30. The mouse 40 has a code (signal line) extending through the hole 42 provided in the work table 30 into the storage unit 32.
Is connected to The mouse 40 is stored in the mouse holder 40A when not in use, and is taken out of the mouse holder 40A when in use and placed on the work surface 30U.

【0038】画像処理部16は、ラインCCDスキャナ
14から出力された画像データ(スキャンデータ)が入
力されると共に、デジタルカメラでの撮影によって得ら
れた画像データ、フィルム画像以外の原稿(例えば反射
原稿等)をスキャナで読み取ることで得られた画像デー
タ、コンピュータで生成された画像データ等(以下、こ
れらをファイル画像データと総称する)を外部から入力
する(例えば、メモリカード等の記憶媒体を介して入力
したり、通信回線を介して他の情報処理機器から入力す
る等)ことも可能なように構成されている。
The image processing unit 16 receives image data (scan data) output from the line CCD scanner 14 and obtains image data obtained by photographing with a digital camera and a document other than a film image (for example, a reflection document). ) Is input from outside (for example, via a storage medium such as a memory card). Or input from another information processing device via a communication line, etc.).

【0039】画像処理部16は、入力された画像データ
に対して各種の補正等の画像処理を行って、記録用画像
データとしてレーザプリンタ部18へ出力する。また、
画像処理部16は、画像処理を行った画像データを画像
ファイルとして外部へ出力する(例えばメモリカード等
の記憶媒体に出力したり、通信回線を介して他の情報処
理機器へ送信する等)ことも可能とされている。
The image processing section 16 performs image processing such as various corrections on the input image data and outputs the image data to the laser printer section 18 as recording image data. Also,
The image processing unit 16 outputs image data on which image processing has been performed to an external device as an image file (for example, outputs the image data to a storage medium such as a memory card, or transmits the image data to another information processing device via a communication line). It is also possible.

【0040】レーザプリンタ部18はR、G、Bのレー
ザ光源を備えており、画像処理部16から入力された記
録用画像データに応じて変調したレーザ光を印画紙に照
射して、走査露光によって印画紙に画像を記録する。ま
た、プロセッサ部20は、レーザプリンタ部18で走査
露光によって画像が記録された印画紙に対し、発色現
像、漂白定着、水洗、乾燥の各処理を施す。これによ
り、印画紙上に画像が形成される。
The laser printer section 18 is provided with R, G, and B laser light sources, and irradiates a photographic paper with laser light modulated in accordance with recording image data input from the image processing section 16 to perform scanning exposure. To record an image on photographic paper. Further, the processor unit 20 performs each process of color development, bleach-fix, washing, and drying on the photographic paper on which the image is recorded by the scanning exposure by the laser printer unit 18. Thus, an image is formed on the printing paper.

【0041】(画像処理部の構成)次に画像処理部16
の構成について図3を参照して説明する。画像処理部1
6は、ラインCCDスキャナ14から入力されるR、
G、Bのデータに対応してラインスキャナ補正部122
R、122G、122Bが設けられている。ラインスキ
ャナ補正部122R、122G、122Bは互いに同一
の構成であり、以下ではこれらを区別せずに「ラインス
キャナ補正部122」と総称する。
(Configuration of Image Processing Unit) Next, the image processing unit 16
Will be described with reference to FIG. Image processing unit 1
6 is R input from the line CCD scanner 14,
The line scanner correction unit 122 corresponding to the G and B data
R, 122G, and 122B are provided. The line scanner correction units 122R, 122G, and 122B have the same configuration, and are hereinafter generically referred to as “line scanner correction unit 122” without distinction.

【0042】ラインスキャナ補正部122は、ラインC
CDが写真フィルムを読み取ることによってラインCC
Dスキャナ14からスキャンデータが入力されると、入
力されたスキャンデータから各画素毎に対応するセルの
暗出力レベルを減ずる暗補正、暗補正を行ったデータを
写真フィルムの濃度を表すデータに対数変換する濃度変
換、写真フィルムを照明する光の光量むらに応じて前記
濃度変換を行ったデータを画素単位で補正するシェーデ
ィング補正、該シェーディング補正を行ったデータのう
ち入射光の光量に正確に対応した信号が出力されないセ
ル(所謂欠陥画素)のデータを周囲の画素のデータから
補間して新たに生成する欠陥画素補正の各処理を順に行
う。
The line scanner correction unit 122 outputs the line C
Line CC by CD reading photographic film
When scan data is input from the D-scanner 14, dark correction for reducing the dark output level of a cell corresponding to each pixel from the input scan data, and data obtained by performing the dark correction are logarithmically converted to data representing the density of a photographic film. Density conversion for conversion, shading correction for correcting the data subjected to the density conversion in pixel units according to the unevenness in the amount of light illuminating the photographic film, and accurately corresponds to the amount of incident light in the data subjected to the shading correction The processing of the defective pixel correction which is newly generated by interpolating the data of the cell (so-called defective pixel) to which the output signal is not output from the data of the surrounding pixels is sequentially performed.

【0043】ラインスキャナ補正部122の出力端はセ
レクタ132の入力端に接続されており、ラインスキャ
ナ補正部122で前記各処理が施されたデータは、スキ
ャンデータとしてセレクタ132に入力される。また、
セレクタ132の入力端は入出力コントローラ134の
データ出力端にも接続されており、入出力コントローラ
134からは、外部から入力されたファイル画像データ
がセレクタ132に入力される。セレクタ132の出力
端は入出力コントローラ134、イメージプロセッサ部
136A、136Bのデータ入力端に各々接続されてい
る。セレクタ132は、入力された画像データを、入出
力コントローラ134、イメージプロセッサ部136
A、136Bの各々に選択的に出力可能とされている。
The output terminal of the line scanner correction unit 122 is connected to the input terminal of the selector 132, and the data subjected to each of the above-described processes in the line scanner correction unit 122 is input to the selector 132 as scan data. Also,
The input end of the selector 132 is also connected to the data output end of the input / output controller 134, from which file image data input from the outside is input to the selector 132. The output terminal of the selector 132 is connected to the input / output controller 134 and the data input terminals of the image processors 136A and 136B. The selector 132 converts the input image data into an input / output controller 134 and an image processor 136.
A and 136B can be selectively output.

【0044】イメージプロセッサ部136Aは、メモリ
コントローラ138、イメージプロセッサ140、3個
のフレームメモリ142A、142B、142Cを備え
ている。フレームメモリ142A、142B、142C
は各々1フレーム分以上のフィルム画像の画像データを
記憶可能な容量を有しており、セレクタ132から入力
された画像データは、メモリコントローラ138によ
り、3個のフレームメモリ142の何れかに記憶され
る。
The image processor section 136A includes a memory controller 138, an image processor 140, and three frame memories 142A, 142B, 142C. Frame memories 142A, 142B, 142C
Have a capacity capable of storing image data of one or more frames of film images, and the image data input from the selector 132 is stored in one of the three frame memories 142 by the memory controller 138. You.

【0045】本第1実施形態に係るイメージプロセッサ
140は、図4に示すように、第1の画像処理部140
A、オフセット補正部140B、非線形性補正部140
C、画像データ規格化部140D、第2の画像データ処
理部140Eが順に接続されて構成されており、フレー
ムメモリ142(図4ではファインスキャンメモリ14
2と表記)に記憶された画像データを取込み、オートセ
ットアップエンジン144(後述)によって各画像毎に
決定された処理条件に従って種々の画像処理を行う。な
お、入力された画像データに対し、オフセット補正部1
40Bはオフセット補正処理を行い、非線形性補正部1
40Cは非線形性補正処理を行い、画像データ規格化部
140Dは画像データ規格化処理を行うが、これらの処
理については後述する。
As shown in FIG. 4, the image processor 140 according to the first embodiment has a first image processing unit 140.
A, offset correction unit 140B, nonlinearity correction unit 140
C, an image data normalizing unit 140D, and a second image data processing unit 140E are connected in this order, and a frame memory 142 (the fine scan memory 14 in FIG.
2), and performs various image processing according to processing conditions determined for each image by an auto setup engine 144 (described later). Note that the offset correction unit 1
40B performs an offset correction process, and performs a non-linearity correction unit 1
40C performs a non-linearity correction process, and the image data normalization unit 140D performs an image data normalization process. These processes will be described later.

【0046】また、第1の画像処理部140A及び第2
の画像処理部140Eの何れかで実行される画像処理と
しては、例えば画像の拡大縮小、階調変換、色変換、画
像の超低周波輝度成分の階調を圧縮するハイパートーン
処理、粒状を抑制しながらシャープネスを強調するハイ
パーシャープネス処理等の出力画像の画質向上のための
画像処理(標準画像処理)が挙げられる。また、レンズ
付きフィルム等によって撮影記録された画像を原画像と
して用いた場合の出力画像の画質向上のための画像処理
(例えばレンズの歪曲収差による原画像の歪みやレンズ
の倍率色収差による原画像の色にじみを補正する画像処
理等)、画調を意図的に変更する画像処理(例えば出力
画像をモノトーンに仕上げる画像処理、出力画像をポー
トレート調に仕上げる画像処理、出力画像をセピア調に
仕上げる画像処理等)や、画像を加工する画像処理(例
えば原画像中に存在する人物を主画像上で細身に仕上げ
るための画像処理等)等のように、個々の画像(或いは
1本の写真フィルムに記録された画像群等の複数の画
像)を単位として選択的に実行すべき非標準の画像処理
も実行可能に第1の画像処理部140A及び第2の画像
処理部140Eの少なくとも一方を構成してもよい。
Further, the first image processing unit 140A and the second
The image processing executed by any of the image processing units 140E includes, for example, image enlargement / reduction, gradation conversion, color conversion, hypertone processing for compressing the gradation of an ultra-low frequency luminance component of the image, and suppression of graininess. Image processing (standard image processing) for improving the image quality of an output image, such as hyper-sharpness processing that emphasizes sharpness while performing the image processing. In addition, image processing for improving the image quality of an output image when an image photographed and recorded by a film with a lens or the like is used as an original image (for example, distortion of the original image due to lens distortion or magnification of the original image due to chromatic aberration of magnification of the lens). Image processing for correcting color blur, image processing for intentionally changing the image tone (for example, image processing for finishing the output image in monotone, image processing for finishing the output image in portrait tone, and image for finishing the output image in sepia tone) Processing, etc.) and image processing (for example, image processing for finishing a person present in the original image into a slender body on the main image), etc. A first image processing unit 140A and a second image processing unit that can also execute non-standard image processing to be selectively executed in units of a plurality of images such as a group of recorded images. It may form at least one of 40E.

【0047】イメージプロセッサ140は入出力コント
ローラ134に接続されており、画像処理を行った画像
データは、フレームメモリ142に一旦記憶された後
に、所定のタイミングで入出力コントローラ134へ出
力される。なお、イメージプロセッサ部136Bは、上
述したイメージプロセッサ部136Aと同一の構成であ
るので説明を省略する。
The image processor 140 is connected to the input / output controller 134. The image data subjected to the image processing is temporarily stored in the frame memory 142 and then output to the input / output controller 134 at a predetermined timing. Note that the image processor unit 136B has the same configuration as the above-described image processor unit 136A, and a description thereof will be omitted.

【0048】ところで、本実施形態では個々のフィルム
画像に対し、ラインCCDスキャナ14において異なる
解像度で2回の読み取りを行う。1回目の比較的低解像
度での読み取り(以下、プレスキャンという)では、フ
ィルム画像の濃度が非常に低い場合(例えばネガフィル
ムにおける露光アンダのネガ画像)にも、ラインCCD
で蓄積電荷の飽和が生じないように決定した読取条件
(写真フィルムに照射する光のR、G、Bの各波長域毎
の光量、ラインCCDの電荷蓄積時間)で写真フィルム
の全面の読み取りが行われる。このプレスキャンによっ
て得られたデータ(プレスキャンデータ)は、セレクタ
132から入出力コントローラ134へ出力される。
In the present embodiment, each line image is read twice by the line CCD scanner 14 at different resolutions. In the first reading at a relatively low resolution (hereinafter, referred to as pre-scan), even when the density of the film image is extremely low (for example, a negative image of an underexposure in a negative film), a line CCD is used.
The reading of the entire surface of the photographic film is performed under the reading conditions determined so that the accumulated charge does not saturate (the amount of light irradiating the photographic film in each of the R, G, and B wavelength ranges, and the charge storage time of the line CCD). Done. Data (pre-scan data) obtained by this pre-scan is output from the selector 132 to the input / output controller 134.

【0049】入出力コントローラ134にはオートセッ
トアップエンジン144が接続されている。オートセッ
トアップエンジン144は、CPU146、RAM14
8(例えばDRAM)、ROM150(例えば記憶内容
を書換え可能なROM)、入出力ポート152を備え、
これらがバス154を介して互いに接続されて構成され
ている。入出力コントローラ134から出力されたプレ
スキャンデータは、図4に示すプレスキャンメモリ13
5に一旦記憶された後に、オートセットアップエンジン
144におけるセットアップ演算処理、及びパーソナル
コンピュータ158(後述)におけるシミュレーション
画像表示処理に供せられる。なお、プレスキャンメモリ
135としては、実際にはオートセットアップエンジン
144のRAM148、又はパーソナルコンピュータ1
58(後述)のメモリ162が使用される。
An automatic setup engine 144 is connected to the input / output controller 134. The auto setup engine 144 includes a CPU 146, a RAM 14
8 (for example, a DRAM), a ROM 150 (for example, a ROM whose storage content can be rewritten), and an input / output port 152.
These components are connected to each other via a bus 154. The pre-scan data output from the input / output controller 134 is stored in the pre-scan memory 13 shown in FIG.
After the data is temporarily stored in the storage unit 5, it is subjected to a setup calculation process in an auto setup engine 144 and a simulation image display process in a personal computer 158 (described later). Note that the prescan memory 135 is actually the RAM 148 of the auto setup engine 144 or the personal computer 1.
58 (described later) is used.

【0050】図4は、オートセットアップエンジン14
4のCPU146によって実現される各種機能のうち、
セットアップ演算処理を行う機能をセットアップ演算部
144Aとして示している。このセットアップ演算部1
44Aは、以下のようにしてセットアップ演算処理を行
う。すなわち、セットアップ演算部144Aは、入出力
コントローラ134から入力されたプレスキャンデータ
に基づいてフィルム画像のコマ位置を判定し、写真フィ
ルム上のフィルム画像記録領域に対応するデータ(プレ
スキャン画像データ)を抽出する。また、プレスキャン
画像データに基づいて、フィルム画像のサイズを判定す
ると共に濃度等の画像特徴量を演算し、プレスキャンを
行った写真フィルムに対し、ラインCCDスキャナ14
が比較的高解像度での再度の読み取り(以下、ファイン
スキャンという)を行う際の読取条件を決定する。そし
てコマ位置及び読取条件をラインCCDスキャナ14に
出力する。
FIG. 4 shows the auto setup engine 14.
4 among various functions realized by the CPU 146.
The function of performing the setup calculation processing is shown as a setup calculation unit 144A. This setup operation unit 1
The 44A performs the setup calculation processing as follows. That is, the setup calculation unit 144A determines the frame position of the film image based on the pre-scan data input from the input / output controller 134, and converts data (pre-scan image data) corresponding to the film image recording area on the photographic film. Extract. Further, based on the pre-scanned image data, the size of the film image is determined, and image features such as density are calculated.
Determines the reading conditions when re-reading at a relatively high resolution (hereinafter, referred to as fine scan). Then, the frame position and the reading conditions are output to the line CCD scanner 14.

【0051】また、セットアップ演算部144Aは、複
数コマ分のフィルム画像のプレスキャン画像データに基
づいて、ラインCCDスキャナ14がファインスキャン
を行うことによって得られる画像データ(ファインスキ
ャン画像データ)に対する画像処理の処理条件を演算に
より自動的に決定し、決定した処理条件をイメージプロ
セッサ部136のイメージプロセッサ140へ出力す
る。この画像処理の処理条件の決定は、撮影時の露光
量、撮影光源種やその他の特徴量から類似のシーンを撮
影した複数のフィルム画像が有るか否か判定し、類似の
シーンを撮影した複数のフィルム画像が有った場合に
は、これらのフィルム画像に対する画像処理の処理条件
が同一又は近似するように決定する。
The setup calculation unit 144A performs image processing on image data (fine scan image data) obtained by performing fine scan by the line CCD scanner 14 based on prescan image data of film images for a plurality of frames. Are automatically determined by calculation, and the determined processing conditions are output to the image processor 140 of the image processor unit 136. The determination of the processing conditions of this image processing is performed by determining whether there are a plurality of film images capturing similar scenes based on the exposure amount at the time of capturing, the type of capturing light source, and other feature amounts, and determining a plurality of film images capturing similar scenes. Are determined, the processing conditions for image processing for these film images are the same or similar.

【0052】なお、画像処理の最適な処理条件は、画像
処理後の画像データを、レーザプリンタ部18における
印画紙への画像の記録に用いるのか、ディスプレイ等の
表示手段への表示に用いるのか、情報記録媒体に格納す
るのか等によっても変化する。画像処理部16には2つ
のイメージプロセッサ部136A、136Bが設けられ
ているので、例えば、画像データを印画紙への画像の記
録に用いると共に外部へ出力する等の場合には、セット
アップ演算部144Aは各々の用途毎にセットアップ演
算を行って各用途毎に最適な処理条件を各々決定し、イ
メージプロセッサ部136A、136Bへ出力する。こ
れにより、イメージプロセッサ部136A、136Bで
は、同一のファインスキャン画像データに対し、互いに
異なる処理条件で画像処理が行われる。
The optimum processing conditions for the image processing are as follows: whether the image data after the image processing is used for recording an image on photographic paper in the laser printer unit 18 or for displaying on a display means such as a display. It also changes depending on whether it is stored in the information recording medium or the like. Since the image processing unit 16 is provided with two image processor units 136A and 136B, for example, in a case where image data is used for recording an image on photographic paper and output to the outside, the setup calculation unit 144A Performs a set-up operation for each application, determines optimum processing conditions for each application, and outputs it to the image processor units 136A and 136B. Thus, the image processors 136A and 136B perform image processing on the same fine scan image data under different processing conditions.

【0053】更に、セットアップ演算部144Aは、入
出力コントローラ134から入力されたフィルム画像の
プレスキャン画像データに基づいて、レーザプリンタ部
18で印画紙に画像を記録する際のグレーバランス等を
規定する画像記録用パラメータを算出し、レーザプリン
タ部18に記録用画像データ(後述)を出力する際に同
時に出力する。また、オートセットアップエンジン14
4は、外部から入力されるファイル画像データに対して
も、上記と同様にして画像処理の処理条件を演算により
決定する。
Further, the setup calculation section 144A defines the gray balance and the like when the laser printer section 18 records an image on photographic paper based on the prescanned image data of the film image input from the input / output controller 134. The image recording parameters are calculated and output at the same time as the recording image data (described later) is output to the laser printer unit 18. Also, the auto setup engine 14
Reference numeral 4 also determines the image processing conditions for the file image data input from the outside by calculation in the same manner as described above.

【0054】また、オートセットアップエンジン144
のROM150には、写真フィルムの露光量−発色濃度
特性に応じて定められた特性データFilmDataj (d) が記
憶されている(なおdは濃度を表し、jはR,G,Bの
何れかを表す)。この特性データFilmDataj (d) は、写
真フィルムに記録されたフィルム画像の画像データが表
す濃度値を、前記写真フィルムのR、G、B毎の露光量
(LogH)−発色濃度(d)特性の線形部を前記特性が非
線形となる露光量域迄各々延長したに等しいR、G、B
の露光量−発色濃度特性を有する仮想写真フィルムに前
記フィルム画像と同一の被写体を露光記録し現像処理を
行うことで得られる仮想フィルム画像を表す仮想画像デ
ータが表す濃度値と略等しくなるように、前記フィルム
画像の画像データを変換する(本発明に係る非線形正補
正)ための変換条件を表しており、例として図5(A)
に示すように変換特性を有している。
The auto setup engine 144
ROM150 stores characteristic data FilmData j (d) determined in accordance with the exposure-color density characteristics of the photographic film (where d represents the density, and j is any of R, G, and B). Represents). The characteristic data FilmData j (d) is the density value represented by the image data of the film image recorded on the photographic film,
(LogH) -R, G, B equal to the linear part of the color density (d) characteristic extended to the exposure region where the characteristic becomes non-linear.
The same exposure value as the density value represented by virtual image data representing a virtual film image obtained by exposing and recording the same subject as the film image on a virtual photographic film having a color density characteristic and developing the same. FIG. 5A shows conversion conditions for converting the image data of the film image (non-linear positive correction according to the present invention).
As shown in FIG.

【0055】特性データFilmDataj (d) は、例えば以下
のようにして定めることができる。すなわち、写真フィ
ルムの一種であるネガフィルムの露光量−発色濃度特性
は、例として図6(A)に示すように、ノーマル露光に
相当する標準的な露光量域では露光量の変化に対して発
色濃度が線形に変化(正比例)しているものの、アンダ
露光に相当する露光量域及びオーバ露光に相当する露光
量域では、前記標準的な露光域から離れるに従ってγ
(露光量の変化に対する発色濃度の変化の傾き)が徐々
に小さくなり、露光量の変化に対して発色濃度が非線形
に変化する。このため、処理対象の写真フィルムの露光
量−発色濃度特性に対し、図6(B)に太線で示すよう
に、前記特性の線形部を前記特性が非線形となる露光量
域まで延長した仮想的な露光量−発色濃度特性を設定す
る。これは、前述の仮想写真フィルムの露光量−発色濃
度特性に対応している。
The characteristic data FilmData j (d) can be determined, for example, as follows. That is, as shown in FIG. 6A, for example, the exposure-color density characteristic of a negative film, which is a kind of photographic film, shows a change in the exposure in a standard exposure range corresponding to normal exposure. Although the color density varies linearly (in direct proportion), in an exposure area corresponding to underexposure and an exposure area corresponding to overexposure, γ increases as the distance from the standard exposure area increases.
(Slope of change in color density with change in exposure amount) gradually decreases, and color density changes non-linearly with change in exposure amount. Therefore, as shown by the bold line in FIG. 6B, the linear portion of the characteristic is extended to the exposure region where the characteristic becomes nonlinear with respect to the exposure-color density characteristic of the photographic film to be processed. A proper exposure-color density characteristic is set. This corresponds to the exposure-color density characteristics of the virtual photographic film described above.

【0056】次に、処理対象の写真フィルムの露光量−
発色濃度特性、及び仮想写真フィルムの露光量−発色濃
度特性において、同一の露光量に対する発色濃度を対応
付けることを全露光量域に亘って行う。例えば図6に示
すように、露光量H1 に対する処理対象の写真フィルム
の発色濃度d1 と仮想写真フィルムの発色濃度d1 ’と
を対応付け、露光量H2 に対する処理対象の写真フィル
ムの発色濃度d2 と仮想写真フィルムの発色濃度d2
とを対応付け、露光量H3 に対する処理対象の写真フィ
ルムの発色濃度d3 と仮想写真フィルムの発色濃度
3 ’とを対応付ける。
Next, the exposure amount of the photographic film to be processed is
In the color density characteristics and the exposure-color density characteristics of the virtual photographic film, the color density for the same exposure is associated over the entire exposure range. For example, as shown in FIG. 6, the color density d 1 of the photographic film to be processed with respect to the exposure amount H 1 associates the color density d 1 'of the virtual photographic film, color development of photographic film to be processed with respect to the exposure amount H 2 Density d 2 and color density d 2 ′ of virtual photographic film
Associating the door, associated with a color density d 3 of the photographic film to be processed with respect to the exposure amount H 3 and color density d 3 'of the virtual photographic film.

【0057】そして、対応付けた発色濃度のうち、処理
対象の写真フィルムの発色濃度を入力濃度、仮想写真フ
ィルムの発色濃度を出力濃度とし、処理対象の写真フィ
ルムに記録されたフィルム画像の濃度値を、仮想写真フ
ィルムに記録された仮想画像の濃度値に変換するための
変換条件を設定する。上記処理をR、G、Bの各成分色
について各々行うことにより、図5(A)に示すような
変換特性の変換条件を表す特性データFilmDataj (d) が
得られる。
Then, among the associated color densities, the color density of the photographic film to be processed is defined as the input density, and the color density of the virtual photographic film is defined as the output density. Is set to convert the density into a density value of a virtual image recorded on the virtual photographic film. By performing the above processing for each of the R, G, and B component colors, characteristic data FilmData j (d) representing the conversion condition of the conversion characteristic as shown in FIG. 5A is obtained.

【0058】写真フィルムの露光量−発色濃度特性は写
真フィルムのフィルム種単位で相違しているので、本実
施形態では、上記の特性データFilmDataj (d) を各フィ
ルム種毎に各々設定している。ROM150には、各フ
ィルム種の特性データFilmDataj (d) が、フィルム種を
識別する情報と対応されて各々記憶されている。従っ
て、ROM150は、図4に示す特性データ記憶部14
4Bとしての機能を備えており、請求項8に記載の記憶
手段に対応している。また、特性データ記憶部144B
に記憶されている特性データFilmDataj (d) は、より詳
しくは請求項2に記載の特性データに対応している。
Since the exposure-color density characteristics of the photographic film are different for each film type of the photographic film, in the present embodiment, the above characteristic data FilmData j (d) is set for each film type. I have. The ROM 150 stores characteristic data FilmData j (d) of each film type in association with information for identifying the film type. Therefore, the ROM 150 stores the characteristic data storage unit 14 shown in FIG.
It has a function as 4B and corresponds to the storage means according to claim 8. Also, the characteristic data storage unit 144B
The characteristic data FilmData j (d) stored in the above corresponds to the characteristic data described in claim 2 in more detail.

【0059】なお、上記の特性データFilmDataj (d) に
従って画像データの変換を行った場合、アンダ露光に対
応する濃度域及びオーバ露光に対応する濃度域の画像部
については階調を硬調化することになるが、過度に硬調
化すると、前記画像部の画調が、フィルムの粒状が過度
に強調された好ましくない画調となる恐れがある。この
ため、特性データFilmDataj (d) の設定にあたっては、
変換特性の勾配(図5(A)に示すθ)が予め定められ
た最大値以下となるようにしている。これにより、特性
データFilmDataj (d) による変換後の画像データが表す
画像が、フィルムの粒状が過度に強調された好ましくな
い画調となることを防止することができる。なお、上記
のように特性データFilmDataj (d) を設定することは、
請求項3の発明に対応している。
When the image data is converted in accordance with the above-mentioned characteristic data FilmData j (d), the gradation is hardened for the image portion of the density region corresponding to underexposure and the density region corresponding to overexposure. In other words, if the contrast is excessively high, the image tone of the image portion may be an undesired image tone in which the graininess of the film is excessively emphasized. Therefore, when setting the characteristic data FilmData j (d),
The gradient of the conversion characteristic (θ shown in FIG. 5A) is set to be equal to or less than a predetermined maximum value. As a result, it is possible to prevent the image represented by the image data converted by the characteristic data FilmData j (d) from having an undesired tone in which the graininess of the film is excessively emphasized. Setting the characteristic data FilmData j (d) as described above
This corresponds to the invention of claim 3.

【0060】入出力コントローラ134はI/F回路1
56を介してレーザプリンタ部18に接続されている。
画像処理後の画像データを印画紙への画像の記録に用い
る場合には、イメージプロセッサ部136で画像処理が
行われた画像データは、入出力コントローラ134から
I/F回路156を介し記録用画像データとしてレーザ
プリンタ部18へ出力される。また、オートセットアッ
プエンジン144はパーソナルコンピュータ158に接
続されている。画像処理後の画像データを画像ファイル
として外部へ出力する場合には、イメージプロセッサ部
136で画像処理が行われた画像データは、入出力コン
トローラ134からオートセットアップエンジン144
を介してパーソナルコンピュータ158に出力される。
The input / output controller 134 is an I / F circuit 1
It is connected to the laser printer section 18 via 56.
When the image data after image processing is used for recording an image on photographic paper, the image data processed by the image processor 136 is transferred from the input / output controller 134 via the I / F circuit 156 to the recording image. The data is output to the laser printer unit 18 as data. The auto setup engine 144 is connected to a personal computer 158. When the image data after the image processing is output to the outside as an image file, the image data processed by the image processor unit 136 is sent from the input / output controller 134 to the auto setup engine 144.
Is output to the personal computer 158 via the.

【0061】パーソナルコンピュータ158は、CPU
160、メモリ162、ディスプレイ164、キーボー
ド166、ハードディスク168、CD−ROMドライ
バ170、搬送制御部172、拡張スロット174、画
像圧縮/伸長部176を備えており、これらがバス17
8を介して互いに接続されて構成されている。
The personal computer 158 has a CPU
160, a memory 162, a display 164, a keyboard 166, a hard disk 168, a CD-ROM driver 170, a transport control unit 172, an expansion slot 174, and an image compression / decompression unit 176.
8 are connected to each other.

【0062】図4は、パーソナルコンピュータ158の
CPU160によって実現される各種機能のうち、シミ
ュレーション画像表示処理に関する機能を、機能毎に複
数のブロック(すなわち、プレスキャン画像データ処理
部158A、画像表示部158B及びキー補正入力部1
58C)に分けて示している。プレスキャン画像データ
処理部158Aは、セットアップ演算部144Aによっ
てプレスキャンデータから抽出されプレスキャンメモリ
135に再記憶されたプレスキャン画像データをプレス
キャンメモリ135から取込むと共に、セットアップ演
算部144Aによって決定された画像処理の処理条件を
取込み、取り込んだ処理条件に基づき、ファインスキャ
ン画像データを対象としてイメージプロセッサ140で
行われる画像処理と等価な画像処理をプレスキャン画像
データに対して行ってシミュレーション画像データを生
成する。
FIG. 4 shows, among the various functions realized by the CPU 160 of the personal computer 158, a function relating to the simulation image display processing by a plurality of blocks (that is, a prescan image data processing section 158A, an image display section 158B) for each function. And key correction input unit 1
58C). The pre-scan image data processing unit 158A takes in the pre-scan image data extracted from the pre-scan data by the setup operation unit 144A and re-stored in the pre-scan memory 135 from the pre-scan memory 135, and is determined by the setup operation unit 144A. Based on the acquired processing conditions, image processing equivalent to the image processing performed by the image processor 140 on the fine-scan image data is performed on the pre-scan image data based on the captured processing conditions, thereby obtaining simulation image data. Generate.

【0063】画像表示部158Bはディスプレイ164
を含んで構成されており、プレスキャン画像データ処理
部158Aによって生成されたシミュレーション画像デ
ータを、ディスプレイ164に画像を表示するための信
号に変換し、該信号に基づいてディスプレイ164にシ
ミュレーション画像を表示する。また、キー補正入力部
158Cはキーボード166を含んで構成されており、
ディスプレイ164に表示されたシミュレーション画像
に対しオペレータによって画質等の検定が行われ、検定
結果として処理条件の修正を指示する情報がキーボード
166を介して入力されると、該情報をオートセットア
ップエンジン144(のセットアップ演算部144A)
へ出力する。これにより、セットアップ演算部144A
では画像処理の処理条件の再演算等の処理が行われる。
The image display section 158B is connected to the display 164.
The simulation image data generated by the pre-scan image data processing unit 158A is converted into a signal for displaying an image on the display 164, and the simulation image is displayed on the display 164 based on the signal. I do. The key correction input section 158C includes a keyboard 166,
The operator performs verification of image quality or the like on the simulation image displayed on the display 164, and when information for instructing correction of processing conditions is input via the keyboard 166 as a verification result, the information is transmitted to the auto setup engine 144 ( Setup operation section 144A)
Output to Thereby, the setup operation unit 144A
In, processing such as recalculation of processing conditions of image processing is performed.

【0064】一方、搬送制御部172は、ラインCCD
スキャナ14にセットされるフィルムキャリア38に接
続されており、フィルムキャリア38による写真フィル
ムの搬送を制御する。また、フィルムキャリア38にA
PSフィルムがセットされた場合には、フィルムキャリ
ア38がAPSフィルムの磁気層から読み取った情報
(例えばプリントサイズ等)が入力される。
On the other hand, the transport control section 172 has a line CCD
It is connected to a film carrier 38 set on the scanner 14 and controls the transport of the photographic film by the film carrier 38. Also, the film carrier 38 has A
When the PS film is set, information (for example, print size) read by the film carrier 38 from the magnetic layer of the APS film is input.

【0065】また、メモリカード等の情報記憶媒体に対
してデータの読出し/書込みを行うドライバ(図示省
略)や、他の情報処理機器と通信を行うための通信制御
装置は、拡張スロット174を介してパーソナルコンピ
ュータ158に接続される。入出力コントローラ134
から外部への出力用の画像データが入力された場合に
は、前記画像データは拡張スロット174を介して画像
ファイルとして外部(前記ドライバや通信制御装置等)
に出力される。また、拡張スロット174を介して外部
からファイル画像データが入力された場合には、入力さ
れたファイル画像データは、オートセットアップエンジ
ン144を介して入出力コントローラ134へ出力され
る。この場合、入出力コントローラ134では入力され
たファイル画像データをセレクタ132へ出力する。
A driver (not shown) for reading / writing data from / to an information storage medium such as a memory card and a communication control device for communicating with other information processing devices are provided via the expansion slot 174. Connected to the personal computer 158. I / O controller 134
When image data for output to the outside is input from an external device (such as the driver or the communication control device) as an image file via the expansion slot 174,
Is output to When file image data is input from outside via the expansion slot 174, the input file image data is output to the input / output controller 134 via the auto setup engine 144. In this case, the input / output controller 134 outputs the input file image data to the selector 132.

【0066】(作用)次に本実施形態の作用として、写
真フィルムに記録されているフィルム画像をラインCC
Dスキャナ14によって読み取り、読み取りによって得
られた画像データに対し各種の画像処理を行って出力す
る場合について説明する。
(Operation) Next, as an operation of the present embodiment, a film image recorded on a photographic film is
A case will be described in which the image data is read by the D scanner 14 and various image processes are performed on the image data obtained by the reading and output.

【0067】先にも説明したように、写真フィルムに記
録されているフィルム画像に対し、ラインCCDスキャ
ナ14は読み取りを2回行う(プレスキャン及びファイ
ンスキャン)。処理対象(読取対象)の写真フィルムの
全面に対し、ラインCCDスキャナ14によりプレスキ
ャンが行われ、ラインCCDスキャナ14から画像処理
部16にプレスキャンデータが入力されると、入力され
たプレスキャンデータに対し、ラインスキャナ補正部1
22によって暗補正、濃度変換、シェーディング補正、
欠陥画素補正の各処理が施される。
As described above, the line CCD scanner 14 reads the film image recorded on the photographic film twice (pre-scan and fine scan). The prescan is performed by the line CCD scanner 14 over the entire surface of the photographic film to be processed (read), and when the prescan data is input from the line CCD scanner 14 to the image processing unit 16, the input prescan data For the line scanner correction unit 1
22, dark correction, density conversion, shading correction,
Each process of defective pixel correction is performed.

【0068】ラインスキャナ補正部122から出力され
たプレスキャンデータは、セレクタ132を介してプレ
スキャンメモリ135に一旦記憶された後にオートセッ
トアップエンジン144に取り込まれ、オートセットア
ップエンジン144(のセットアップ演算部144A)
でセットアップ演算処理が実行される。以下、このセッ
トアップ演算処理について、図5のフローチャートを参
照して説明する。
The pre-scan data output from the line scanner correction unit 122 is temporarily stored in the pre-scan memory 135 via the selector 132 and then taken into the auto-setup engine 144, and the (setup-operation unit 144A of the auto-setup engine 144) )
Executes the setup calculation process. Hereinafter, the setup calculation process will be described with reference to the flowchart of FIG.

【0069】ステップ300では、プレスキャンメモリ
135から取り込んだプレスキャンデータから、処理対
象の写真フィルム上のバーコード(DXコード)が記録
されている領域のデータを抽出し、次のステップ302
では、ステップ300で抽出したデータから処理対象の
写真フィルムに記録されたDXコードの内容を判断し、
判断した内容に基づいて処理対象の写真フィルムのフィ
ルム種を判定する。ステップ304では、ROM150
(すなわち特性データ記憶部144B)に記憶されてい
る各フィルム種毎の特性データFilmDataj (d) の中か
ら、処理対象の写真フィルムのフィルム種に対応する特
性データFilmDataj (d) を取り込む。そして次のステッ
プ306では、取り込んだ特性データFilmDataj (d) を
非線形性補正の変換条件として設定する。このステップ
304は請求項8に記載の選択手段に対応している。
In step 300, data of an area where a bar code (DX code) is recorded on the photographic film to be processed is extracted from the pre-scan data fetched from the pre-scan memory 135, and the next step 302
Then, the contents of the DX code recorded on the photographic film to be processed are determined from the data extracted in step 300,
The type of the photographic film to be processed is determined based on the determined content. In step 304, the ROM 150
(I.e. the characteristic data storage unit 144B) from the characteristic data FilmData j for each film type stored (d), the capture film type to the corresponding characteristic data FilmData j of processed photographic film (d). Then, in the next step 306, the acquired characteristic data FilmData j (d) is set as a conversion condition for nonlinearity correction. This step 304 corresponds to the selecting means described in claim 8.

【0070】ステップ308では、プレスキャンメモリ
135から取り込んだプレスキャンデータから、処理対
象の写真フィルム上の未露光領域(素抜け領域)のデー
タを抽出し、抽出したデータが表すR、G、Bの濃度値
を、処理対象の写真フィルムのフィルムベース濃度 Bas
eDnsj として設定する。このステップ308は、請求項
4に記載のフィルムベースの濃度の検知に対応してい
る。次のステップ310では、先のステップ304で取
り込んだ特性データFilmDataj (d) によって定義されて
いるR、G、Bの最低濃度を、フィルムベース濃度の基
準値BaseDataj として各々設定する。そしてステップ3
12では、フィルムベース濃度 BaseDnsj及びフィルム
ベース濃度の基準値BaseDataj を、処理対象の写真フィ
ルムに対するオフセット補正値として記憶する。
In step 308, data of an unexposed area (absent area) on the photographic film to be processed is extracted from the prescan data fetched from the prescan memory 135, and R, G, B represented by the extracted data. The density value of the film base density of the photographic film to be processed.
Set as eDns j . This step 308 corresponds to the detection of the density of the film base according to the fourth aspect. In the next step 310, the minimum densities of R, G, and B defined by the characteristic data FilmData j (d) fetched in the previous step 304 are respectively set as reference values BaseData j of the film base densities. And step 3
In 12, the reference value BaseData j of the film base density BaseDns j and film base density, is stored as the offset correction value for the photographic film to be processed.

【0071】次のステップ314〜ステップ320で
は、個々のフィルム画像を単位として処理を行う。すな
わちステップ314では、プレスキャンメモリ135か
ら取り込んだプレスキャンデータに基づき、1コマ分の
フィルム画像の写真フィルム上での記録位置(コマ位
置)を判定し、判定したコマ位置に基づいてプレスキャ
ンデータからフィルム画像記録位置に対応するフィルム
画像データ IMAGEj (x) を切り出す(なおxは個々の画
素を識別するIDを表す)。このフィルム画像データ I
MAGEj (x) (すなわちプレスキャン画像データ)は、本
発明に係る読取画像データに対応している。
In the following steps 314 to 320, processing is performed for each film image. That is, in step 314, the recording position (frame position) of one frame of the film image on the photographic film is determined based on the prescan data fetched from the prescan memory 135, and the prescan data is determined based on the determined frame position. , The film image data IMAGE j (x) corresponding to the film image recording position is cut out (where x represents an ID for identifying each pixel). This film image data I
MAGE j (x) (that is, pre-scan image data) corresponds to the read image data according to the present invention.

【0072】ステップ316では、ステップ314で切
り出したフィルム画像データ IMAGE j (x) に対し、先の
ステップ312で記憶したオフセット補正値を用い、次
の(1)式に従って個々の画素のデータを単位としてオ
フセット補正処理を行う。
In step 316, the disconnection is made in step 314.
Film image data IMAGE j(x)
Using the offset correction value stored in step 312,
According to the equation (1), each pixel data is used as a unit.
Perform the offset correction processing.

【0073】 IMAGE2j (x) = IMAGEj (x) − BaseDnsj +BaseDataj …(1) 写真フィルムのフィルムベースの濃度は写真フィルムに
対して現像処理を行った際の現像条件によって変動し、
このフィルムベースの濃度の変動はフィルム画像データ
IMAGEj (x) にオフセットとして加わる。また、ライン
CCDによる写真フィルムの読み取り時に、読み取りに
用いる光源からの射出光量が所期の光量と相違していた
場合にも、この光量の相違がフィルム画像データ IMAGE
j (x) にオフセットとして加わる。これに対し、上記の
オフセット補正処理では、フィルムベース濃度 BaseDns
j とフィルムベース濃度の基準値BaseDataj との差分に
応じて、フィルム画像データ IMAGEj (x) を補正するの
で、処理対象の写真フィルムに対する現像処理の現像条
件の変動や、写真フィルム読み取り時の光源の光量の変
動に起因するフィルム画像データ IMAGEj (x) のオフセ
ットを補正することができる。
IMAGE2 j (x) = IMAGE j (x) −BaseDns j + BaseData j (1) The density of the film base of the photographic film fluctuates depending on the development conditions when the photographic film is subjected to the development processing.
This film-based density variation is based on the film image data.
Add to IMAGE j (x) as an offset. Also, when the photographic film is read by the line CCD, if the amount of light emitted from the light source used for reading is different from the expected amount of light, this difference in the amount of light will be reflected in the film image data IMAGE.
Add as an offset to j (x). In contrast, in the above offset correction processing, the film base density BaseDns
Since the film image data IMAGE j (x) is corrected in accordance with the difference between j and the film base density reference value BaseData j , fluctuations in the development conditions of the development processing for the photographic film to be processed, It is possible to correct the offset of the film image data IMAGE j (x) due to the fluctuation of the light amount of the light source.

【0074】次のステップ318では、オフセット補正
処理後のフィルム画像データIMAGE2 j (x) に対し、先の
ステップ304で取り込んだ特性データFilmDataj (d)
を用い、次の(2)式に従って個々の画素のデータを単
位としてR、G、B毎に非線形性補正処理を行う。
In the next step 318, offset correction is performed.
Film image data IMAGE2 after processing j(x)
Characteristics data FilmData captured in step 304j(d)
And the data of each pixel is simply calculated according to the following equation (2).
Non-linearity correction processing is performed for each of R, G, and B as positions.

【0075】 IMAGE3j (x) =FilmDataj ( IMAGE2j (x)) …(2) 上記の非線形性補正処理により、処理対象の写真フィル
ムの露光量−発色濃度特性の非線形性による影響が除去
され、オフセット補正処理後のフィルム画像データIMAG
E2j (x) は、全濃度域に亘って露光量の変化に対して発
色濃度が線形に変化する露光量−発色濃度特性(図6
(B)の太線参照)を有する仮想写真フィルムに記録し
た仮想フィルム画像の画像データと略等しい画像データ
(フィルム画像データIMAGE3j (x))に変換されることに
なる。なおステップ318は、請求項1に記載の非線形
性補正(請求項8に記載の補正手段)に対応している。
IMAGE3 j (x) = FilmData j (IMAGE2 j (x)) (2) By the above-described non-linearity correction processing, the influence of the non-linearity of the exposure-color density characteristic of the photographic film to be processed is removed. , Film image data IMAG after offset correction processing
E2 j (x) is an exposure-color density characteristic (FIG. 6) in which the color density changes linearly with the change in the exposure over the entire density range.
This is converted into image data (film image data IMAGE3 j (x)) substantially equal to the image data of the virtual film image recorded on the virtual photographic film having (B) the thick photographic film. Step 318 corresponds to the nonlinearity correction described in claim 1 (correction means described in claim 8).

【0076】次のステップ320では、上述したステッ
プ314〜318の処理を、処理対象の写真フィルムに
記録されている全てのフィルム画像に対して行ったか否
か判定する。判定が否定された場合にはステップ314
へ戻り、ステップ320の判定が肯定される迄ステップ
314〜320を繰り返す。これにより、全てのフィル
ム画像について、非線形性補正処理後のフィルム画像デ
ータIMAGE3j (x)が各々求められることになる。
In the next step 320, it is determined whether or not the above-described steps 314 to 318 have been performed on all the film images recorded on the photographic film to be processed. If the determination is negative, step 314 is reached.
Returning to step 320, steps 314 to 320 are repeated until the determination in step 320 is affirmed. Thus, the film image data IMAGE3 j (x) after the non-linearity correction processing is obtained for all the film images.

【0077】ところで、写真フィルムの露光量−発色濃
度特性は、標準現像条件で現像処理された場合であって
もR、G、B毎に相違していると共に、写真フィルムに
対する現像処理の現像条件が標準現像条件に対して偏倚
すると、写真フィルムの実際の露光量−発色濃度特性は
更にR、G、B毎に別々に変動する。従って、非線形性
補正処理後のフィルム画像データIMAGE3j (x)が表す画
像の色バランスは、写真フィルムの実際の露光量−発色
濃度特性のR、G、B毎の相違に起因して、撮影時(写
真フィルムへの被写体像の露光記録時)の被写体像の色
バランスと相違している(グレーバランスが崩れてい
る)。このため、次のステップ322以降では、画像デ
ータが表す画像の色バランスを被写体像の色バランスに
略一致させるための画像データの規格化を行う。
Incidentally, the exposure-color density characteristics of a photographic film differ for each of R, G, and B even when developed under standard development conditions. Deviates from the standard development conditions, the actual exposure-color density characteristics of the photographic film further vary separately for each of R, G, and B. Therefore, the color balance of the image represented by the film image data IMAGE3 j (x) after the non-linearity correction processing is determined by the difference between the R, G, and B of the actual exposure amount-color density characteristics of the photographic film. At the time of exposure (at the time of exposure recording of the subject image on the photographic film) (the gray balance is lost). For this reason, in the next step 322 and subsequent steps, the image data is normalized so that the color balance of the image represented by the image data substantially matches the color balance of the subject image.

【0078】ステップ322では、各フィルム画像の非
線形性補正処理後のフィルム画像データIMAGE3j (x)に
基づいて各フィルム画像の解析を行い、各フィルム画像
のフィルム画像データIMAGE3j (x)から、処理対象フィ
ルム画像として処理対象写真フィルムに撮影記録された
被写体像上で色相が無彩色(グレー等)と推定される部
分に対応する画素(グレー候補点)を各々抽出する。こ
のグレー候補点の抽出は、例えば以下のようにして行う
ことができる。
[0078] At step 322, analyzes the respective film image based on the nonlinearity correction process after the film image data image3 j for each film image (x), from the film image data image3 j for each film image (x), Pixels (gray candidate points) corresponding to portions where the hue is estimated to be achromatic (eg, gray) on the subject image captured and recorded on the photographic film to be processed as the processing target film image are extracted. The extraction of the gray candidate points can be performed, for example, as follows.

【0079】すなわち、各フィルム画像のフィルム画像
データIMAGE3j (x)に基づいて、各フィルム画像に対
し、高濃度側における無彩色の条件を表す高濃度側R、
G、B基準濃度及び低濃度側における無彩色の条件を表
す低濃度側R、G、B基準濃度を各々設定する。高濃度
側及び低濃度側のR、G、B基準濃度としては、例えば
フィルム画像中の3色平均濃度が最大の画素、3色平均
濃度が最小の画素の色味(被写体像上で該画素に対応す
る対応する部分の色相、以下同様)を無彩色とみなし、
該画素のR、G、B濃度値を高濃度側及び低濃度側の
R、G、B基準濃度とすることができる。また、3色平
均濃度の濃度ヒストグラムにおいて3色平均濃度の最大
値、最小値からの累積頻度が所定値の画素の色味を無彩
色とみなし、該画素のR、G、B濃度値を高濃度側及び
低濃度側のR、G、B基準濃度としてもよいし、3色平
均濃度の最大値からの累積頻度が所定範囲内の複数の画
素のR、G、B毎の平均濃度を高濃度側R、G、B基準
濃度とし、3色平均濃度の最小値からの累積頻度が所定
範囲内の複数の画素のR、G、B毎の平均濃度を低濃度
側R、G、B基準濃度としてもよい。
That is, based on the film image data IMAGE3 j (x) of each film image, for each film image, the high density side R, which represents the condition of achromatic color on the high density side,
The low-density R, G, and B reference densities representing the achromatic color conditions on the G and B reference densities and the low-density side are set, respectively. As the R, G, and B reference densities on the high density side and the low density side, for example, the color of a pixel having the maximum three-color average density in the film image and the color of the pixel having the minimum three-color average density (the pixel Hue of the corresponding part corresponding to, the same applies hereinafter) is regarded as achromatic,
The R, G, B density values of the pixel can be used as the R, G, B reference densities on the high density side and the low density side. Further, in the density histogram of the three-color average density, the tint of a pixel whose cumulative frequency from the maximum value and the minimum value of the three-color average density is a predetermined value is regarded as an achromatic color, and the R, G, and B density values of the pixel are set to high. The R, G, and B reference densities on the density side and the low density side may be used, or the average density for each of R, G, and B of a plurality of pixels whose cumulative frequency from the maximum value of the three-color average density is within a predetermined range may be high. On the density R, G, and B reference densities, the average density for each of R, G, and B of a plurality of pixels whose cumulative frequency from the minimum value of the three-color average density is within a predetermined range is the low density R, G, and B reference. The concentration may be used.

【0080】次に、上記のR、G、B基準濃度の精度を
向上させるため、各フィルム画像に対して各々設定した
高濃度側R、G、B基準濃度のR、G、B毎の平均値
(高濃度側平均R、G、B基準濃度)、低濃度側R、
G、B基準濃度のR、G、B毎の平均値(低濃度側平均
R、G、B基準濃度)を演算する。
Next, in order to improve the accuracy of the R, G, and B reference densities, the average of the R, G, and B reference densities for the R, G, and B reference densities respectively set for each film image is set. Values (average R, G, B reference densities on the high density side), low density R,
The average value of the G and B reference densities for each of R, G, and B (low-density average R, G, and B reference densities) is calculated.

【0081】続いて、高濃度側平均R、G、B基準濃度
及び低濃度側平均R、G、B基準濃度に基づいて、フィ
ルム画像の各画素の3色平均濃度と、各画素の色味が無
彩色のときのR、G、B濃度と、の関係を表す無彩色条
件を決定する。これは、例えば図8に示すように、色座
標(図8ではR濃度−G濃度を横軸、G濃度−B濃度を
縦軸にとった色座標を例として示す)上に高濃度側平均
R、G、B基準濃度及び低濃度側平均R、G、B基準濃
度を各々プロットし、例えば両者を直線(無彩色線と称
する)で結び、全てのフィルム画像のフィルム画像デー
タIMAGE3j (x)の中から、R、G、B濃度が無彩色線を
中心とする一定の範囲(例えば図8に破線で囲んで示す
範囲)内に入る画素のデータを多数抽出し、抽出した各
画素のデータより3色平均濃度と各画素のR、G、B濃
度との関係を表す無彩色条件を最小二乗法、回帰分析等
によって決定することができる。
Subsequently, based on the high-density-side average R, G, and B reference densities and the low-density-side average R, G, and B reference densities, the three-color average density of each pixel of the film image and the tint of each pixel are determined. The achromatic condition representing the relationship between R, G, and B densities when is achromatic is determined. For example, as shown in FIG. 8, the high-density-side average is displayed on the color coordinate (in FIG. 8, the color coordinate with the R density-G density on the horizontal axis and the G density-B density on the vertical axis is shown as an example). The R, G, B reference densities and the low-density average R, G, B reference densities are plotted, for example, they are connected by a straight line (referred to as an achromatic line), and the film image data IMAGE3 j (x ), A large number of pixel data in which the R, G, and B densities fall within a certain range around the achromatic line (for example, a range surrounded by a broken line in FIG. 8) are extracted. From the data, an achromatic condition representing the relationship between the average density of three colors and the R, G, and B densities of each pixel can be determined by the least square method, regression analysis, or the like.

【0082】この無彩色条件は、フィルム画像中の無彩
色の画素(被写体像中のグレイの部分に相当する画素)
におけるR、G、Bの濃度バランス(各濃度域における
色バランス)を表しており、無彩色条件に合致する画素
をグレー候補点として抽出する。なお、グレー候補点の
抽出方法は上記に限定されるものではなく、公知の種々
の抽出方法を適用可能である。ステップ322では、上
記のようにして抽出したグレー候補点の中から、更に、
処理対象の写真フィルムの露光量−発色濃度特性におけ
る線形部に相当する濃度域内の画素を最終的なグレー候
補点として抽出する。
The achromatic condition is defined as achromatic pixels in the film image (pixels corresponding to gray portions in the subject image).
Represents the density balance of R, G, and B (color balance in each density range), and extracts a pixel matching the achromatic color condition as a gray candidate point. The method for extracting gray candidate points is not limited to the above, and various known extraction methods can be applied. In step 322, from among the gray candidate points extracted as described above,
A pixel in a density range corresponding to a linear portion in the exposure-color density characteristic of the photographic film to be processed is extracted as a final gray candidate point.

【0083】次のステップ324では、画像データの規
格化処理で使用する、フィルム画像データIMAGE3j (x)
から求めた規格化条件に対する重み係数α1 、特性デー
タFilmDataj (d) から求めた規格化条件に対する重み係
数α2 を決定する。この重み係数α1 、α2 は、各フィ
ルム画像から最終的に抽出したグレー候補点の数に基づ
いて、抽出されたグレー候補点の数が多くなるに従っ
て、フィルム画像データIMAGE3j (x)から求めた規格化
条件に対する重み係数α1 の値が大きくなるように定め
ることができる。なお、上記のステップ322、324
は、請求項6の発明(より詳しくは請求項7の発明)に
対応している。
In the next step 324, film image data IMAGE3 j (x) used in the normalization processing of the image data
The weighting factor α 1 for the normalization condition obtained from, and the weighting factor α 2 for the normalization condition obtained from the characteristic data FilmData j (d) are determined. The weighting coefficients α 1 and α 2 are calculated from the film image data IMAGE3 j (x) based on the number of gray candidate points finally extracted from each film image and as the number of extracted gray candidate points increases. can be determined so that the value of the weighting factor alpha 1 for the obtained normalized condition increases. Note that the above steps 322, 324
Corresponds to the invention of claim 6 (more specifically, the invention of claim 7).

【0084】ところで、画像データが表す画像の色バラ
ンスを被写体像の色バランスに一致させることは、撮影
時のRの露光量と画像データが表す画像上でのRの濃度
との関係、撮影時のGの露光量と画像データが表す画像
上でのGの濃度との関係、及び撮影時のBの露光量と画
像データが表す画像上でのBの濃度との関係が一致する
(重なる)ように、各画素のデータを単位として画像デ
ータを変換することで実現することができる。
By the way, matching the color balance of the image represented by the image data with the color balance of the subject image depends on the relationship between the exposure amount of R at the time of photographing and the density of R on the image represented by the image data, The relationship between the exposure amount of G and the density of G on the image represented by the image data and the relationship between the exposure amount of B at the time of shooting and the density of B on the image represented by the image data match (overlap). As described above, it can be realized by converting the image data using the data of each pixel as a unit.

【0085】本第1実施形態では非線形性補正実行後の
フィルム画像データIMAGE3j (x)に対して規格化処理を
行うので、R、G、B各色についての上記関係は各々線
形となっている。従って、本第1実施形態に係る規格化
処理(R、G、B各色についての撮影時の露光量と画像
データが表す画像上での濃度との関係を略一致させる処
理)は、フィルム画像データIMAGE3j (x)に対し、R、
G、B各色のデータを単位として各々線形変換を行うこ
とにより実現できる。次のステップ326、328で
は、フィルム画像データIMAGE3j (x)から抽出したグレ
ー候補点のデータに基づいて、線形変換によって画像デ
ータを規格化する規格化条件を決定する。
In the first embodiment, since the normalization processing is performed on the film image data IMAGE3 j (x) after the execution of the non-linearity correction, the above relations for each of the R, G, and B colors are linear. . Therefore, the normalization processing (processing for making the relationship between the exposure amount at the time of shooting for each of R, G, and B colors and the density on the image represented by the image data substantially match) according to the first embodiment is performed by using film image data. For IMAGE3 j (x), R,
This can be realized by performing linear conversion on the data of each of G and B colors as a unit. In the next steps 326 and 328, normalization conditions for normalizing the image data by linear conversion are determined based on the data of the gray candidate points extracted from the film image data IMAGE3 j (x).

【0086】すなわちステップ326では、各フィルム
画像から最終的に抽出した全てのグレー候補点のR、
G、B毎の平均濃度Dr、Dg、Dbを演算する。ステ
ップ328では、規格化処理後の画像データにおける前
記グレー候補点の平均濃度Dr、Dg、Dbが全て等し
く(Dr=Dg=Db)なるようにフィルム画像データ
IMAGE3j (x)を規格化するための第1の規格化条件(よ
り詳しくは規格化を行うための線形変換式のパラメータ
であるゲインGanma1j 、オフセット量 Offset1j)を、
特定の成分色(例えばG)を基準にしてR、G、B毎に
演算によって求める。
That is, in step 326, R, R, and G of all gray candidate points finally extracted from each film image
The average density Dr, Dg, Db for each of G and B is calculated. In step 328, the film image data is set so that the average densities Dr, Dg, and Db of the gray candidate points in the image data after the normalization processing are all equal (Dr = Dg = Db).
A first normalization condition for normalizing IMAGE3 j (x) (more specifically, a gain Ganma1 j and an offset amount Offset1 j , which are parameters of a linear conversion equation for performing normalization),
It is obtained by calculation for each of R, G, and B based on a specific component color (for example, G).

【0087】上記により規格化処理の規格化条件が求ま
るが、各フィルム画像から抽出されたグレー候補点の数
が少ない等の場合には、グレー候補点のR、G、B毎の
平均濃度Dr、Dg、Dbの差が、撮影時の露光量とフ
ィルム画像データIMAGE3j (x)が表す画像上での濃度と
の関係のR、G、B各色毎のずれを正確には表していな
い場合がある。従って、先の第1の規格化条件のみを用
いて規格化処理を行ったとしても精度良く色バランスを
補正できないことがある。
The normalization conditions for the normalization process are obtained as described above. If the number of gray candidate points extracted from each film image is small, for example, the average density Dr for each of the R, G, and B gray candidate points is determined. , Dg, and Db do not accurately represent the deviation of each of the R, G, and B colors in the relationship between the exposure amount at the time of shooting and the density on the image represented by the film image data IMAGE3 j (x). There is. Therefore, even if the normalization process is performed using only the first normalization condition, the color balance may not be accurately corrected.

【0088】このため、本第1実施形態では、特性デー
タFilmDataj (d) に基づいて、特性データFilmData
j (d) が表すR、G、B各色毎の変換条件の変換曲線を
略一致させる(重ねる)ことに相当する変換(この場合
も線形変換でよい)が行われるように第2の規格化条件
(線形変換式のパラメータであるゲインGanma2j 、オフ
セット量 Offset2j )が予め設定されて、特性データ記
憶部144Bに予め記憶されている。次のステップ33
0では、処理対象の写真フィルムのフィルム種に対応す
る第2の規格化条件を取り込む。
For this reason, in the first embodiment, based on the characteristic data FilmData j (d), the characteristic data
The second normalization is performed such that a conversion equivalent to making the conversion curves of the conversion conditions for each of the R, G, and B colors represented by j (d) substantially coincide (overlap) (in this case, linear conversion may be performed). condition (which is a parameter of the linear transformation formula gain Ganma2 j, offset Offset2 j) are set in advance are stored in advance in the characteristic data storage unit 144B. Next step 33
At 0, the second standardization condition corresponding to the film type of the photographic film to be processed is fetched.

【0089】次のステップ332では、ステップ328
で演算した規格化条件のパラメータ及びステップ330
で取り込んだ規格化条件のパラメータを、次の(3)式
に従って重み付けして加算し、パラメータを演算する。
In the next step 332, step 328
Parameter of the normalization condition calculated in step 330 and step 330
The parameters of the standardization condition fetched in are weighted and added according to the following equation (3) to calculate the parameters.

【0090】 Ganmaj =α1 ×Ganma1j +α2 ×Ganma2j Offsetj =α1 × Offset1j +α2 × Offset2j …(3) ステップ334では、特定のフィルム画像のフィルム画
像データIMAGE3j (x)を取り込み、取り込んだフィルム
画像データIMAGE3j (x)に対し、ステップ332で演算
したパラメータ(ゲイン Ganmaj 、オフセット量Offset
j )を用い、次の(4)式に従ってR、G、B毎に規格
化処理を行う。この規格化処理は、請求項5に記載の画
像データの規格化(より詳しくは請求項6に記載の画像
データの規格化)に対応している。
[0090] Ganma j = α 1 × Ganma1 j + α 2 × Ganma2 j Offset j = α 1 × Offset1 j + α 2 × Offset2 j ... (3) In step 334, the film image data of a particular film image IMAGE3 j (x) The parameters (gain Ganma j , offset amount Offset) calculated in step 332 are applied to the captured film image data IMAGE3 j (x).
Using j ), a normalization process is performed for each of R, G, and B according to the following equation (4). This normalization processing corresponds to the normalization of image data described in claim 5 (more specifically, the normalization of image data described in claim 6).

【0091】 IMAGE4j (x)= Ganmaj ×IMAGE3j (x)+Offsetj …(4) 上記の規格化処理により、写真フィルムの元々の露光量
−発色濃度特性のR、G、B毎の相違や、現像条件の変
動に起因するR、G、B毎の露光量−発色濃度特性の相
違によって生ずる処理対象画像の色バランス(R、G、
B毎の濃度のバランス)の偏倚を補正することができ
る。従って、R、G、B各色の撮影時の露光量と画像デ
ータが表す画像上での濃度との関係が各々線形でかつ互
いに略一致された画像データ、すなわち撮影時の被写体
像を正確に表すフィルム画像データIMAGE4j (x) を得る
ことができる。
IMAGE4 j (x) = Ganma j × IMAGE3 j (x) + Offset j (4) By the above-described normalization processing, the difference between the original exposure amount of the photographic film and the color density characteristics for each of R, G, and B Also, the color balance of the image to be processed (R, G,
It is possible to correct the deviation of the density of each B). Accordingly, image data in which the relationship between the exposure amount of each of the R, G, and B colors at the time of shooting and the density on the image represented by the image data is linear and substantially coincides with each other, ie, accurately represents the subject image at the time of shooting. Film image data IMAGE4 j (x) can be obtained.

【0092】また、上記の規格化処理では各フィルム画
像から最終的に抽出したグレー候補点の数に基づいて、
フィルム画像データから求めた第1の規格化条件のパラ
メータ(Ganma1j ,Offset1j ) と、特性データから求め
た第2の規格化条件のパラメータ(Ganma2j ,Offset
2j )を重み付けし規格化条件のパラメータ(Ganmaj , O
ffsetj ) を決定しているので、各フィルム画像から抽
出したグレー候補点の数が少なく、規格化処理による補
正精度が低いと推定される場合にも、第1の規格条件の
パラメータに対する重みが小さくされることで、画像デ
ータが表す画像の色バランスを高精度に補正することが
できる。
In the above-described normalization processing, based on the number of gray candidate points finally extracted from each film image,
The parameters of the first normalization condition obtained from the film image data (Ganma1 j, Offset1 j), the parameters of the second standard conditions determined from the characteristic data (Ganma2 j, Offset
2 j ) is weighted and the parameters (Ganma j , O
ffset j ), even when the number of gray candidate points extracted from each film image is small and the correction accuracy by the normalization process is estimated to be low, the weight for the parameter of the first standard condition is By reducing the size, the color balance of the image represented by the image data can be corrected with high accuracy.

【0093】次のステップ336では、規格化処理後の
フィルム画像データIMAGE4j (x)に基づいて、フィルム
画像の濃度等の各種の画像特徴量を演算し、演算した画
像特徴量に基づいて、ラインCCDスキャナ14が前記
特定のフィルム画像のファインスキャンを行う際の読取
条件を演算すると共に、ラインCCDスキャナ14が前
記特定のフィルム画像のファインスキャンを行うことに
よって得られる画像データ(ファインスキャン画像デー
タ)に対する画像処理の処理条件を決定する。なお、決
定した画像処理の処理条件は、特定のフィルム画像を識
別する情報(例えばコマ番号)と対応されてRAM14
8に記憶される。
In the next step 336, various image features such as the density of the film image are calculated based on the film image data IMAGE4 j (x) after the normalization processing, and based on the calculated image features. The line CCD scanner 14 calculates reading conditions when performing the fine scan of the specific film image, and image data (fine scan image data) obtained by performing the fine scan of the specific film image with the line CCD scanner 14. ) Is determined. Note that the determined processing conditions of the image processing correspond to information (for example, frame number) for identifying a specific film image and are stored in the RAM 14.
8 is stored.

【0094】ステップ338では処理対象の写真フィル
ムに記録されている全てのフィルム画像に対してステッ
プ334、336の処理を行ったか否か判定する。判定
が否定された場合にはステップ334に戻り、ステップ
338の判定が肯定される迄、各フィルム画像に対して
ステップ334〜338を繰り返す。ステップ338の
判定が肯定されるとステップ340へ移行し、各フィル
ム画像の規格化処理後のフィルム画像データIMAGE4
j (x)を、プレスキャンメモリ135を介してパーソナ
ルコンピュータ158に転送すると共に、各フィルム画
像のファインスキャン画像データに対する画像処理の処
理条件をパーソナルコンピュータ158に転送し、セッ
トアップ演算処理を終了する。
In step 338, it is determined whether or not the processing in steps 334 and 336 has been performed on all the film images recorded on the photographic film to be processed. If the determination is negative, the process returns to step 334, and steps 334 to 338 are repeated for each film image until the determination in step 338 is affirmative. If the determination in step 338 is affirmative, the process proceeds to step 340, where the film image data IMAGE4 after the normalization processing of each film image is performed.
j (x) is transferred to the personal computer 158 via the pre-scan memory 135, and the image processing conditions for the fine scan image data of each film image are transferred to the personal computer 158, thus ending the setup calculation process.

【0095】各フィルム画像のフィルム画像データIMAG
E4j (x)及び画像処理の処理条件が転送されると、パー
ソナルコンピュータ158では画像検定処理を行う。す
なわち、プレスキャン画像データ処理部158Aでは、
オートセットアップエンジン144から転送された画像
処理の処理条件に基づき、ファインスキャン画像データ
を対象としてイメージプロセッサ140で実行される画
像処理と等価な画像処理をフィルム画像データIMAGE4j
(x)に対して行ってシミュレーション画像データを生成
する。また、画像表示部158では、プレスキャン画像
データ処理部158Aで生成されたシミュレーション画
像データに基づいてイメージプロセッサ140での画像
処理実行後のファインスキャン画像データを用いてプリ
ントを作成した場合の仕上がりを表すシミュレーション
画像をディスプレイ164に表示する。
Film image data IMAG of each film image
When the processing conditions of E4 j (x) and the image processing are transferred, the personal computer 158 performs image verification processing. That is, in the prescanned image data processing unit 158A,
Based on the processing condition of image processing transfers from automatic set-up engine 144, an image processing equivalent to the image processing of the film image data image4 j executed by the image processor 140 as an object the fine scan image data
(x) to generate simulation image data. Further, the image display unit 158 uses the fine scan image data after the image processor 140 executes the image processing based on the simulation image data generated by the pre-scan image data processing unit 158A to create a print. The displayed simulation image is displayed on the display 164.

【0096】ディスプレイ164にシミュレーション画
像が表示されると、オペレータはシミュレーション画像
を目視で確認し、オートセットアップエンジン144に
よって判定されたコマ位置が適正か否か、シミュレーシ
ョン画像の画質が適正か否か(すなわちオートセットア
ップエンジン144で演算された標準画像処理の処理条
件が適正か否か)を検定し、検定結果を表す情報をキー
ボード166を介して入力する。
When the simulation image is displayed on the display 164, the operator visually checks the simulation image, and determines whether or not the frame position determined by the auto setup engine 144 is appropriate and whether the image quality of the simulation image is appropriate ( That is, whether or not the processing conditions of the standard image processing calculated by the auto setup engine 144 are appropriate) is verified, and information representing the verification result is input via the keyboard 166.

【0097】特定のフィルム画像に対してコマ位置や画
像処理の処理条件の修正が指示されると、オートセット
アップエンジン144は、前記特定のフィルム画像に対
し、先に説明したセットアップ演算処理のうち、入力さ
れた修正指示に対応する処理を再度行い、入力された修
正指示を反映したフィルム画像データIMAGE4j (x)及び
再演算した画像処理の処理条件を転送する。これによ
り、ディスプレイ164には、入力された修正指示に応
じて修正されたシミュレーション画像が再表示される。
When the frame position and the processing conditions for image processing are instructed with respect to the specific film image, the auto setup engine 144 executes the setup calculation processing described above for the specific film image. The processing corresponding to the input correction instruction is performed again, and the film image data IMAGE4 j (x) reflecting the input correction instruction and the processing conditions of the recalculated image processing are transferred. As a result, the simulation image corrected according to the input correction instruction is displayed on the display 164 again.

【0098】再表示された特定のシミュレーション画像
をオペレータが目視で確認することにより、オペレータ
は先に入力した修正情報の内容が適正か否かを容易に判
断できる。そして、オペレータが検定合格を表す情報を
入力すると、画像検定処理を終了する。
By visually confirming the re-displayed specific simulation image by the operator, the operator can easily determine whether or not the content of the previously input correction information is appropriate. Then, when the operator inputs the information indicating the pass of the test, the image test process ends.

【0099】一方、写真フィルムに対するプレスキャン
を完了すると、ラインCCDスキャナ14では、写真フ
ィルムを個々のフィルム画像毎に読み取るファインスキ
ャンを行う。このファインスキャンに際しては、個々の
フィルム画像に対する読取条件がオートセットアップエ
ンジン144からラインCCDスキャナ14に通知さ
れ、ラインCCDスキャナ14は、通知された読取条件
に従って個々のフィルム画像の読み取り(ファインスキ
ャン)を行う。
On the other hand, when the pre-scan for the photographic film is completed, the line CCD scanner 14 performs a fine scan for reading the photographic film for each film image. At the time of this fine scan, reading conditions for each film image are notified to the line CCD scanner 14 from the auto setup engine 144, and the line CCD scanner 14 reads each film image (fine scan) according to the notified reading conditions. Do.

【0100】また各フィルム画像に対する画像処理の処
理条件については、ラインCCDスキャナ14から各フ
ィルム画像のファインスキャン画像データが入力される
際にオートセットアップエンジン144からイメージプ
ロセッサ140に通知される。イメージプロセッサ14
0は、入力された各フィルム画像のファインスキャン画
像データに対し、前記通知された処理内容の画像処理を
各々行う。
The processing conditions for image processing for each film image are notified from the auto setup engine 144 to the image processor 140 when fine scan image data of each film image is input from the line CCD scanner 14. Image processor 14
0 performs image processing of the notified processing contents on the input fine scan image data of each film image.

【0101】ここで、イメージプロセッサ140のオフ
セット演算部140Bは、先に説明したセットアップ演
算処理のステップ312で記憶されたオフセット補正値
を用い、(1)式に従ってオフセット補正処理を行う。
また、非線形性補正部140Cは、セットアップ演算処
理のステップ306で変換条件として設定された特性デ
ータFilmDataj (d) を用い、(2)式に従って非線形性
補正処理を行う。また画像データ規格化部140Dは、
セットアップ演算処理のステップ332で演算されたパ
ラメータ(Ganmaj , Offsetj ) を用い、(2)式に従っ
て規格化処理を行う。上記により、ファインスキャン画
像データは、撮影時の被写体像を正確に表す画像データ
に変換されることになる。
Here, the offset calculation section 140B of the image processor 140 performs the offset correction processing according to the equation (1) using the offset correction value stored in the step 312 of the setup calculation processing described above.
The non-linearity correction unit 140C performs the non-linearity correction processing according to the equation (2) using the characteristic data FilmData j (d) set as the conversion condition in step 306 of the setup calculation processing. Further, the image data normalizing unit 140D
Using the parameters (Ganma j , Offset j ) calculated in step 332 of the setup calculation process, a normalization process is performed according to equation (2). As described above, the fine scan image data is converted into image data that accurately represents a subject image at the time of shooting.

【0102】イメージプロセッサ140に入力されたフ
ァインスキャン画像データは、上記の画像処理以外に
も、第1の画像処理部140A及び第2の画像処理部1
40Eで各種の画像処理が行われた後に、出力用画像デ
ータとしてイメージプロセッサ140から出力される。
この出力用画像データは、レーザプリンタ部18におけ
る印画紙への画像の記録に用いられるか、又はディスプ
レイ164への画像の表示に用いられるか、又は拡張ス
ロット174を介してメモリカード等の情報記憶媒体に
格納される。
The fine scan image data input to the image processor 140 may be used in addition to the above-described image processing, in addition to the first image processing section 140A and the second image processing section 1A.
After various image processing is performed in 40E, the image data is output from the image processor 140 as output image data.
This output image data is used for recording an image on photographic paper in the laser printer unit 18, for displaying an image on the display 164, or for storing information in a memory card or the like via the expansion slot 174. Stored on the medium.

【0103】〔第2実施形態〕次に本発明の第2実施形
態について説明する。なお、第2実施形態は第1実施形
態と略同一の構成であるので、同一のの部分には同一の
符号を付して説明を省略する。
[Second Embodiment] Next, a second embodiment of the present invention will be described. Since the second embodiment has substantially the same configuration as the first embodiment, the same portions are denoted by the same reference numerals and description thereof will be omitted.

【0104】図9に示すように、本第2実施形態に係る
イメージプロセッサ140は、オフセット補正部140
Bの出力側に画像データ規格化部140Dが配置され、
画像データ規格化部140Dの出力側に非線形性補正部
140Cが配置されている。従って、イメージプロセッ
サ140のオフセット補正部140Bでオフセット補正
処理が行われた画像データは、画像データ規格化部14
0Dで規格化処理が行われた後に、非線形性補正部14
0Cで非線形性補正が行われる。
As shown in FIG. 9, the image processor 140 according to the second embodiment includes an offset correction unit 140
An image data normalizing unit 140D is arranged on the output side of B,
A nonlinearity correction unit 140C is arranged on the output side of the image data normalization unit 140D. Therefore, the image data subjected to the offset correction processing by the offset correction unit 140B of the image processor 140 is output to the image data normalization unit 14B.
After the normalization process is performed in 0D, the nonlinearity correction unit 14
Non-linearity correction is performed at 0C.

【0105】また、本第2実施形態に係る特性データ記
憶部144には、図5(B)にも示すように、写真フィ
ルムの露光量と基準色(例えばG)の濃度との関係を表
す露光量−発色濃度特性に応じて定められた特性データ
FilmData(d) が記憶されている。この特性データFilmDa
ta(d) についても、第1実施形態で説明した特性データ
FilmDataj (d) と同様に、写真フィルムに記録されたフ
ィルム画像の画像データを、前記写真フィルムの露光量
(LogH)−発色濃度(d)特性の線形部を前記特性が非
線形となる露光量域迄各々延長したに等しい露光量−発
色濃度特性を有する仮想写真フィルムに前記フィルム画
像と同一の被写体を露光記録し現像処理を行うことで得
られる仮想フィルム画像を表す仮想画像データと略等し
くなるように濃度値を変換する(本発明に係る非線形正
補正)ための変換条件を表している。
As shown in FIG. 5B, the characteristic data storage section 144 according to the second embodiment shows the relationship between the exposure amount of the photographic film and the density of the reference color (for example, G). Characteristic data determined according to the exposure-color density characteristics
FilmData (d) is stored. This characteristic data FilmDa
Also for ta (d), the characteristic data described in the first embodiment
Similarly to FilmData j (d), the image data of the film image recorded on the photographic film is
(LogH)-Exposure of the same subject as the film image to a virtual photographic film having an exposure-color density characteristic equal to the linear portion of the color density (d) characteristic extended to an exposure region where the characteristic becomes non-linear. It shows a conversion condition for converting a density value so as to be substantially equal to virtual image data representing a virtual film image obtained by recording and developing (nonlinear corrective correction according to the present invention).

【0106】次に、本第2実施形態に係るセットアップ
演算処理について、図10のフローチャートを参照し、
第1実施形態に係るセットアップ演算処理と異なる部分
についてのみ説明する。
Next, the setup calculation processing according to the second embodiment will be described with reference to the flowchart of FIG.
Only parts different from the setup calculation processing according to the first embodiment will be described.

【0107】本第2実施形態に係るセットアップ演算処
理では、ステップ314〜ステップ320における個々
のフィルム画像を単位とする処理において、フィルム画
像データ IMAGEj (x) の切り出し(ステップ314)及
びオフセット補正処理(ステップ316)のみを行い、
非線形性補正処理は行わない。そして、全てのフィルム
画像に対して上記のステップ314、316の処理を行
うとステップ320の判定が肯定され、ステップ323
へ移行する。
In the setup calculation processing according to the second embodiment, in the processing for each film image in steps 314 to 320, cutting out of the film image data IMAGE j (x) (step 314) and offset correction processing (Step 316) only,
No nonlinearity correction processing is performed. Then, when the processing of the above-described steps 314 and 316 is performed on all the film images, the determination of step 320 is affirmed, and step 323 is performed.
Move to.

【0108】先に説明したイメージプロセッサ140の
構成からも明らかなように、本第2実施形態では、オフ
セット補正処理後(すなわち非線形性補正処理前)のフ
ィルム画像データ(IMAGE2j (x))に対して規格化処理を
行う。R、G、B各色についての撮影時の露光量とフィ
ルム画像データIMAGE2j (x) が表す画像上での濃度との
関係は各々非線形となっている。従って、画像データが
表す画像の色バランスを被写体像の色バランスに略一致
させる(R、G、B各色についての撮影時の露光量とフ
ィルム画像データIMAGE2j (x) が表す画像上での濃度と
の関係を略一致させる)ためには、フィルム画像データ
IMAGE2j (x) の基準色以外の成分色のデータに対し、各
濃度域毎に異なる変換条件で変換する必要がある。
As is clear from the configuration of the image processor 140 described above, in the second embodiment, the film image data (IMAGE2 j (x)) after the offset correction processing (ie, before the nonlinearity correction processing) is added to the image data. Then, normalization processing is performed. The relationship between the exposure amount of each of the R, G, and B colors at the time of shooting and the density on the image represented by the film image data IMAGE2 j (x) is nonlinear. Therefore, the color balance of the image represented by the image data is made to substantially match the color balance of the subject image (the exposure amount at the time of photographing for each of the R, G, and B colors and the density on the image represented by the film image data IMAGE2 j (x)). To make the relationship approximately the same)
It is necessary to convert data of component colors other than the reference color of IMAGE2 j (x) under different conversion conditions for each density range.

【0109】このため、ステップ323では各フィルム
画像から全濃度域に亘ってグレー候補点を抽出し、次の
ステップ325では、抽出した各グレー候補点の三色平
均濃度又は基準色(例えばG)の濃度に基づき、各グレ
ー候補点が複数の濃度域の何れに属しているかを判断し
て、全てのグレー候補点を各濃度域毎に分類し、グレー
候補点のR、G、B毎の平均濃度Dr、Dg、Dbを各
濃度域毎に各々演算する。そしてステップ327では、
規格化処理後の画像データにおける各濃度域毎の平均濃
度Dr、Dg、Dbが全て等しく(例えば基準色がGで
あれば、Dgを基準としてDr、DbがDgに等しく)
なるようにフィルム画像データIMAGE2j(x)を規格化す
るための規格化条件(変換条件LUTj (d))を求める。
Therefore, in step 323, gray candidate points are extracted from each film image over the entire density range, and in the next step 325, the three-color average density or reference color (for example, G) of each extracted gray candidate point is extracted. It is determined based on the density of each of the gray candidate points to which of the plurality of density areas belongs, and all the gray candidate points are classified into each density area, and the gray candidate points are classified into R, G, B The average densities Dr, Dg, and Db are calculated for each density range. And in step 327,
The average densities Dr, Dg, and Db for each density area in the image data after the normalization processing are all equal (for example, if the reference color is G, Dr and Db are equal to Dg based on Dg).
Thus, a normalization condition (conversion condition LUT j (d)) for normalizing the film image data IMAGE2 j (x) is obtained.

【0110】次のステップ329以降では、各フィルム
画像のデータに対し、規格化処理、非線形性補正処理を
順に実行する。すなわち、ステップ329では特定のフ
ィルム画像のフィルム画像データIMAGE2j (x)を取り込
み、取り込んだフィルム画像データIMAGE2j (x)に対
し、ステップ327で求めた規格化処理の変換条件LU
j (d)を用い、次の(5)式に従って各画素のデータ
を単位としてR、G、B毎に規格化処理を行う。
In the next step 329 and subsequent steps, normalization processing and non-linearity correction processing are sequentially performed on the data of each film image. That is, in step 329, the film image data IMAGE2 j (x) of the specific film image is fetched, and the conversion condition LU of the normalization processing obtained in step 327 is applied to the fetched film image data IMAGE2 j (x).
Using T j (d), normalization processing is performed for each of R, G, and B in units of data of each pixel according to the following equation (5).

【0111】 IMAGE3j (x)=LUTj (IMAGE2 j (x)) …(5) 上記の規格化処理により、写真フィルムの元々の露光量
−発色濃度特性のR、G、B毎の相違や、現像条件の変
動に起因するR、G、B毎の露光量−発色濃度特性の相
違によって生ずる処理対象画像の色バランス(R、G、
B毎の濃度のバランス)の偏倚が補正される。
IMAGE3 j (x) = LUT j (IMAGE2 j (x)) (5) By the above-described normalization processing, the difference between the original exposure amount-color density characteristics of the photographic film for each of R, G, and B, , The color balance (R, G,
The deviation of the density balance for each B) is corrected.

【0112】次のステップ331では、規格化処理後の
フィルム画像データIMAGE3j (x) に対し、先のステップ
304で取り込んだ特性データFilmData(d) を用い、次
の(6)式に従って個々の画素のデータを単位として非
線形性補正処理を行う。なお、このステップ331も請
求項1に記載の非線形性補正(請求項8に記載の補正手
段)に対応している。
In the next step 331, the characteristic data FilmData (d) fetched in the previous step 304 is used for the film image data IMAGE3 j (x) after the normalization processing, and the individual image data is obtained according to the following equation (6). The nonlinearity correction processing is performed using pixel data as a unit. This step 331 also corresponds to the non-linearity correction according to claim 1 (correction means according to claim 8).

【0113】 IMAGE4j (x) =FilmData( IMAGE3j (x)) …(6) フィルム画像データIMAGE3j (x) は、ステップ329に
おける規格化処理によりR、G、B各色についての撮影
時の露光量とフィルム画像データIMAGE3j (x)が表す画
像上での濃度との関係が略一致されているので、非線形
性補正処理として、(6)式に示すようにR、G、Bの
データを同一の変換条件で変換することにより、処理対
象の写真フィルムの露光量−発色濃度特性の非線形性に
よる影響がR、G、B各色について各々除去される。こ
れにより、R、G、B各色の撮影時の露光量と画像デー
タが表す画像上での濃度との関係が各々線形でかつ互い
に略一致された画像データ、すなわち撮影時の被写体像
を正確に表すフィルム画像データIMAGE4j (x) を得るこ
とができる。
IMAGE4 j (x) = FilmData (IMAGE3 j (x)) (6) The film image data IMAGE3 j (x) is exposed at the time of shooting for each of the R, G, and B colors by the normalization processing in step 329. Since the relationship between the amount and the density on the image represented by the film image data IMAGE3 j (x) is approximately the same, the R, G, and B data are calculated as shown in equation (6) as the nonlinearity correction processing. By performing the conversion under the same conversion conditions, the influence of the non-linearity of the exposure-color density characteristic of the photographic film to be processed is removed for each of the R, G, and B colors. As a result, the image data in which the relationship between the exposure amount of each of the R, G, and B colors at the time of shooting and the density on the image represented by the image data is linear and substantially coincides with each other, that is, the subject image at the time of shooting can be accurately determined. Film image data IMAGE4 j (x) to be obtained.

【0114】また、本第2実施形態に係るイメージプロ
セッサ140にファインスキャン画像データが入力され
ると、イメージプロセッサ140のオフセット演算部1
40Bは、セットアップ演算処理のステップ312で記
憶されたオフセット補正値を用い、(1)式に従ってオ
フセット補正処理を行う。また画像データ規格化部14
0Dは、セットアップ演算処理のステップ327で求め
た規格化処理の変換条件LUTj (d)を用い、(5)式
に従って規格化処理を行う。また、非線形性補正部14
0Cは、セットアップ演算処理のステップ306で変換
条件として設定された特性データFilmData(d) を用い、
(6)式に従って非線形性補正処理を行う。上記によ
り、ファインスキャン画像データは、撮影時の被写体像
を正確に表す画像データに変換されることになる。
When the fine scan image data is input to the image processor 140 according to the second embodiment, the offset calculation unit 1 of the image processor 140
40B performs an offset correction process according to equation (1) using the offset correction value stored in step 312 of the setup calculation process. Also, the image data normalizing unit 14
0D uses the conversion condition LUT j (d) of the normalization process obtained in step 327 of the setup operation process, and performs the normalization process according to equation (5). Further, the nonlinearity correction unit 14
0C uses the characteristic data FilmData (d) set as the conversion condition in step 306 of the setup calculation process,
The nonlinearity correction processing is performed according to the equation (6). As described above, the fine scan image data is converted into image data that accurately represents a subject image at the time of shooting.

【0115】なお、上記では特性データFilmDataj (d)
又はFilmData(d) を予め設定して記憶しておく態様を説
明したが、これに限定されるものではなく、写真フィル
ムの露光量−発色濃度特性そのものを表すデータを記憶
しておき、セットアップ演算処理時に特性データを求め
るようにしてもよい。
In the above description, the characteristic data FilmData j (d)
Alternatively, the mode in which FilmData (d) is set and stored in advance has been described. However, the present invention is not limited to this, and data representing the exposure-color density characteristic itself of the photographic film is stored and the setup calculation The characteristic data may be obtained at the time of processing.

【0116】また、上記ではオフセット補正をフィルム
画像データ IMAGEj (x) に対して行う場合を説明した
が、これに限定されるものではなく、特性データFilmDa
taj (d) 又はFilmData(d) が表す変換特性が入力側に相
当する濃度軸に平行にシフトするように特性データを補
正するようにしてもよい。
In the above description, the offset correction is performed on the film image data IMAGE j (x). However, the present invention is not limited to this.
The characteristic data may be corrected so that the conversion characteristic represented by ta j (d) or FilmData (d) is shifted in parallel to the density axis corresponding to the input side.

【0117】また、上記では本発明に係る感光材料とし
て写真フィルムを例に説明したが、これに限定されるも
のではなく、印画紙等の他の感光材料に露光記録された
画像を読み取ることによって得られた画像データに対し
て補正を行う場合にも適用可能であり、非線形な光電変
換特性を有する光センサによって撮像を行うことで得ら
れた画像データに対して前記光電変換特性の非線形性を
補正する等の場合に応用することも可能である。
In the above description, a photographic film was described as an example of the photosensitive material according to the present invention. However, the present invention is not limited to this. By reading an image exposed and recorded on another photosensitive material such as photographic paper. The present invention is also applicable to the case where correction is performed on the obtained image data, and the non-linearity of the photoelectric conversion characteristic is obtained for the image data obtained by performing imaging using the optical sensor having the non-linear photoelectric conversion characteristic. It is also possible to apply it in the case of correction and the like.

【0118】[0118]

【発明の効果】以上説明したように請求項1記載の発明
及び請求項8記載の発明は、感光材料の種類毎に特性デ
ータを記憶しておき、処理対象の感光材料の種類に基づ
いて特性データを選択し、選択した特性データに基づい
て、処理対象画像の読取画像データが、処理対象の感光
材料の露光量−発色濃度特性の線形部を前記特性が非線
形となる露光量域迄延長したに等しい特性を有する仮想
感光材料に前記処理対象画像と同一の被写体を露光記録
し現像処理を行うことで得られる仮想画像を表す仮想画
像データと略等しくなるように、読取画像データに対し
て非線形性補正を行うので、感光材料に露光記録され現
像処理によって可視化された画像を読み取ることによっ
て得られた読取画像データから、露光記録時の被写体像
を正確に表す画像データを取得することができる、とい
う優れた効果を有する。
As described above, according to the first and eighth aspects of the present invention, characteristic data is stored for each type of photosensitive material, and the characteristic data is stored based on the type of photosensitive material to be processed. Data is selected, and based on the selected characteristic data, the read image data of the image to be processed extends the linear part of the exposure-color density characteristic of the photosensitive material to be processed to an exposure range where the characteristic becomes nonlinear. Non-linearly with respect to the read image data so as to be substantially equal to virtual image data representing a virtual image obtained by exposing and recording the same subject as the processing target image on a virtual photosensitive material having characteristics equal to Image data obtained by reading an image that has been exposed and recorded on a photosensitive material and visualized by a development process, an image that accurately represents the subject image at the time of exposure recording Can be acquired over data, it has an excellent effect that.

【0119】請求項2記載の発明は、請求項1の発明に
おいて、特性データとして、感光材料に記録された画像
の濃度を仮想感光材料に記録された画像の濃度に変換す
るための変換条件を表すデータを用い、該特性データが
表す変換条件に従って読取画像データを変換することに
より非線形性補正を行うようにしたので、上記効果に加
え、非線形性補正を短時間で行うことができる、という
効果を有する。
According to a second aspect of the present invention, in the first aspect, a conversion condition for converting the density of an image recorded on a photosensitive material into the density of an image recorded on a virtual photosensitive material is used as characteristic data. The non-linearity correction is performed by converting the read image data according to the conversion condition represented by the characteristic data using the data represented by the characteristic data. Having.

【0120】請求項3記載の発明は、請求項2の発明に
おいて、変換特性の勾配が予め定められた最大値以下と
なるように変換条件を定めるようにしたので、上記効果
に加え、画像データが表す画像がフィルムの粒状が過度
に強調された好ましくない画調となるように画像データ
が変換されることを防止することができる、という効果
を有する。
According to a third aspect of the present invention, in the second aspect of the invention, the conversion condition is determined so that the gradient of the conversion characteristic is equal to or less than a predetermined maximum value. Has the effect that the image data can be prevented from being converted such that the image represented by has an undesired tone in which the graininess of the film is excessively emphasized.

【0121】請求項4記載の発明は、請求項1の発明に
おいて、非線形性補正の実行に先立ち、処理対象の写真
フィルムのフィルムベースの濃度を検知し、検知したフ
ィルムベースの濃度が、写真フィルムの特性データによ
って定義されるフィルムベースの濃度に略一致するよう
に、読取画像データ又は写真フィルムの特性データを予
め補正するようにしたので、上記効果に加え、露光記録
時の被写体像を表す画像データから、現像条件の変動に
起因する写真フィルムのフィルムベース濃度の変動によ
る影響を排除することができる、という効果を有する。
According to a fourth aspect of the present invention, in the first aspect of the invention, prior to the execution of the non-linearity correction, the density of the film base of the photographic film to be processed is detected, and the detected density of the film base is determined. The read image data or the characteristic data of the photographic film is corrected in advance so as to substantially match the density of the film base defined by the characteristic data of (1). From the data, there is an effect that the influence of the fluctuation of the film base density of the photographic film caused by the fluctuation of the developing conditions can be excluded.

【0122】請求項5記載の発明は、請求項1の発明に
おいて、少なくとも読取画像データに基づいて画像デー
タの各成分色毎の濃度バランスを補正する画像データの
規格化を、非線形性補正を行う前の読取画像データ、又
は非線形性補正を行うことで得られた画像データに対し
て行うようにしたので、上記効果に加え、露光記録時の
被写体像を表す画像データの各成分色毎の濃度バランス
を適正にすることができる、という効果を有する。
According to a fifth aspect of the present invention, in the first aspect of the present invention, non-linearity correction and normalization of image data for correcting the density balance for each component color of the image data based on at least the read image data are performed. Since it is performed on the previously read image data or the image data obtained by performing the non-linearity correction, in addition to the above-described effects, the density for each component color of the image data representing the subject image at the time of exposure recording This has the effect that the balance can be made appropriate.

【0123】請求項6記載の発明は、読取画像データを
用いて処理対象画像を解析した結果に基づき、読取画像
データに基づく規格化条件及び特性データに基づく規格
化条件に対する重みを決定し、決定した重みに従い読取
画像データに基づく規格化条件及び特性データに基づく
規格化条件の重み付けを行って画像データの規格化を行
うようにしたので、処理対象画像が、読取画像データの
みに基づいて各成分色毎の濃度バランスを補正した場合
に補正精度が大幅に低下する画像内容である等の場合に
も、各成分色毎の濃度バランスの補正精度が大幅に低下
することを回避することができ、読取画像データから露
光記録時の被写体像を正確に表す画像データを取得する
ことができる、という効果を有する。
According to a sixth aspect of the present invention, a weight for the normalization condition based on the read image data and the weight for the normalization condition based on the characteristic data is determined based on the result of analyzing the processing target image using the read image data. The normalization condition based on the read image data and the normalization condition based on the characteristic data are weighted in accordance with the weighted values to normalize the image data. Even in the case of image contents in which the correction accuracy is significantly reduced when the density balance of each color is corrected, it is possible to avoid that the correction accuracy of the density balance of each component color is significantly reduced, There is an effect that image data accurately representing a subject image at the time of exposure recording can be acquired from the read image data.

【0124】請求項7記載の発明は、請求項6の発明に
おいて、処理対象画像の解析として、読取画像データか
ら被写体像上での色相が無彩色と推定される画素のデー
タの抽出を行い、抽出した画素の数に基づいて読取画像
データ及び特性データの各々に対する重みを決定するよ
うにしたので、上記効果に加え、常に高い補正精度で画
像データの各成分色毎の濃度バランスを補正することが
できる、という効果を有する。
According to a seventh aspect of the present invention, in the invention of the sixth aspect, as the analysis of the image to be processed, data of pixels whose hue on the subject image is estimated to be an achromatic color is extracted from the read image data. Since the weight for each of the read image data and the characteristic data is determined based on the number of extracted pixels, in addition to the above effects, the density balance of each component color of the image data is always corrected with high correction accuracy. Has the effect of being able to

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態に係るディジタルラボシステムの概
略ブロック図である。
FIG. 1 is a schematic block diagram of a digital laboratory system according to an embodiment.

【図2】ディジタルラボシステムの外観図である。FIG. 2 is an external view of a digital laboratory system.

【図3】画像処理部の概略構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a schematic configuration of an image processing unit.

【図4】第1実施形態に係る画像処理部のオートセット
アップエンジン、パーソナルコンピュータの機能をブロ
ック毎に分けて示すと共に、イメージプロセッサの内部
構成を示すブロック図である。
FIG. 4 is a block diagram illustrating functions of an auto setup engine and a personal computer of an image processing unit according to the first embodiment, divided into blocks, and showing an internal configuration of an image processor.

【図5】(A)は第1実施形態に係る特性データが表す
変換特性の一例、(B)は第2実施形態に係る特性デー
タが表す変換特性の一例を各々示す線図である。
FIG. 5A is a diagram illustrating an example of a conversion characteristic represented by characteristic data according to the first embodiment, and FIG. 5B is a diagram illustrating an example of a conversion characteristic represented by characteristic data according to the second embodiment;

【図6】(A)は処理対象の写真フィルムの露光量−発
色濃度特性の一例、(B)は仮想写真フィルムの露光量
−発色濃度特性の一例を各々示す線図である。
6A is a diagram illustrating an example of an exposure amount-coloring density characteristic of a photographic film to be processed, and FIG. 6B is a diagram illustrating an example of an exposure amount-coloring density characteristic of a virtual photographic film.

【図7】第1実施形態に係るセットアップ演算処理を示
すフローチャートである。
FIG. 7 is a flowchart illustrating a setup calculation process according to the first embodiment.

【図8】グレー候補点を抽出するための無彩色条件の一
例を示す線図である。
FIG. 8 is a diagram illustrating an example of an achromatic condition for extracting a gray candidate point.

【図9】第2実施形態に係る画像処理部のオートセット
アップエンジン、パーソナルコンピュータの機能をブロ
ック毎に分けて示すと共に、イメージプロセッサの内部
構成を示すブロック図である。
FIG. 9 is a block diagram illustrating functions of an auto setup engine and a personal computer of an image processing unit according to a second embodiment, divided into blocks, and showing an internal configuration of an image processor.

【図10】第2実施形態施に係るセットアップ演算処理
を示すフローチャートである。
FIG. 10 is a flowchart illustrating a setup calculation process according to the second embodiment.

【符号の説明】[Explanation of symbols]

10 ディジタルラボシステム 140 イメージプロセッサ 140B オフセット補正部 140C 非線形性補正部 140D 画像データ規格化部 144 オートセットアップエンジン 144A セットアップ演算部 144B 特性データ記憶部 10 Digital Lab System 140 Image Processor 140B Offset Correction Unit 140C Nonlinearity Correction Unit 140D Image Data Normalization Unit 144 Auto Setup Engine 144A Setup Operation Unit 144B Characteristic Data Storage Unit

フロントページの続き Fターム(参考) 2H110 BA17 BA18 BA19 CB32 CB35 CB41 CB44 CB76 5C062 AB03 AB17 AB42 AC21 AC22 AE03 BA00 5C077 LL19 MM20 MP08 NN02 NP01 PP15 PP32 PP37 PP41 PP43 PP47 PQ08 PQ18 PQ20 PQ23 SS06 TT03 TT06 5C079 HB01 JA04 LA07 LA12 LA31 LB01 MA04 NA03 PA03 PA05 PA08 Continued on the front page F-term (reference) 2H110 BA17 BA18 BA19 CB32 CB35 CB41 CB44 CB76 5C062 AB03 AB17 AB42 AC21 AC22 AE03 BA00 5C077 LL19 MM20 MP08 NN02 NP01 PP15 PP32 PP37 PP41 PP43 PP47 PQ08 PQ18 PQ20 PQ07 SS0606 LA31 LB01 MA04 NA03 PA03 PA05 PA08

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 感光材料の露光量−発色濃度特性に応じ
て定めた特性データを感光材料の種類毎に記憶してお
き、 処理対象の感光材料の種類に基づいて処理対象の感光材
料に対応する特性データを選択し、 前記選択した特性データに基づいて、前記処理対象の感
光材料に露光記録され現像処理によって可視化された処
理対象画像を読み取ることによって得られた読取画像デ
ータが、前記感光材料の露光量−発色濃度特性の線形部
を前記特性が非線形となる露光量域迄延長したに等しい
露光量−発色濃度特性を有する仮想感光材料に前記処理
対象画像と同一の被写体を露光記録し現像処理を行うこ
とで得られる仮想画像を表す仮想画像データと略等しく
なるように、前記読取画像データに対して非線形性補正
を行う画像データ補正方法。
1. Characteristic data determined according to the exposure amount-color density characteristic of a photosensitive material is stored for each type of photosensitive material, and corresponding to the type of photosensitive material to be processed based on the type of photosensitive material to be processed. Selected characteristic data to be read, and based on the selected characteristic data, read image data obtained by reading a processing target image that has been exposed and recorded on the processing target photosensitive material and visualized by a development process, and the readout image data is the photosensitive material. Exposure recording and development of the same subject as the image to be processed on a virtual photosensitive material having an exposure-color density characteristic equal to the linear portion of the exposure-color density characteristic extended to an exposure region where the characteristic becomes nonlinear. An image data correction method for performing non-linearity correction on the read image data so as to be substantially equal to virtual image data representing a virtual image obtained by performing the processing.
【請求項2】 前記特性データは、前記感光材料に記録
された画像の濃度を前記仮想感光材料に記録された画像
の濃度に変換するための変換条件を表すデータであり、
該特性データが表す変換条件に従って読取画像データを
変換することにより前記非線形性補正を行うことを特徴
とする請求項1記載の画像データ補正方法。
2. The characteristic data is data representing conversion conditions for converting the density of an image recorded on the photosensitive material into the density of an image recorded on the virtual photosensitive material.
2. The image data correction method according to claim 1, wherein the nonlinearity correction is performed by converting the read image data according to a conversion condition represented by the characteristic data.
【請求項3】 前記変換条件を、変換特性の勾配が予め
定められた最大値以下となるように定めることを特徴と
する請求項2記載の画像データ補正方法。
3. The image data correction method according to claim 2, wherein the conversion condition is determined such that a gradient of the conversion characteristic is equal to or less than a predetermined maximum value.
【請求項4】 前記感光材料は写真フィルムであり、 前記非線形性補正の実行に先立ち、前記処理対象の写真
フィルムのフィルムベースの濃度を検知し、検知したフ
ィルムベースの濃度と前記写真フィルムの特性データに
よって定義されるフィルムベースの濃度との差分に応じ
て、前記読取画像データ又は前記写真フィルムの特性デ
ータを予め補正することを特徴とする請求項1記載の画
像データ補正方法。
4. The photosensitive material is a photographic film, and prior to execution of the nonlinearity correction, a density of a film base of the photographic film to be processed is detected, and the detected density of the film base and characteristics of the photographic film are detected. 2. The image data correction method according to claim 1, wherein the read image data or the characteristic data of the photographic film is corrected in advance according to a difference from a film-based density defined by the data.
【請求項5】 少なくとも前記読取画像データに基づい
て画像データの各成分色毎の濃度バランスを補正する画
像データの規格化を、前記非線形性補正を行う前の読取
画像データ、又は前記非線形性補正を行うことで得られ
た画像データに対して行うことを特徴とする請求項1記
載の画像データ補正方法。
5. A method for normalizing image data for correcting a density balance for each component color of image data based on at least the read image data, the method comprising: reading the read image data before performing the non-linearity correction; 2. The image data correction method according to claim 1, wherein the method is performed on image data obtained by performing.
【請求項6】 感光材料の露光量−発色濃度特性に応じ
て定めた特性データを感光材料の種類毎に記憶してお
き、 処理対象の感光材料に露光記録され現像処理によって可
視化された処理対象画像を読み取ることによって得られ
た読取画像データを用いて前記処理対象画像を解析し、 前記解析の結果に基づき、前記読取画像データに基づく
規格化及び前記特性データに基づく規格化に対する重み
を各々決定し、 決定した重みに従い前記読取画像データに基づく規格化
及び前記特性データに基づく規格化の重み付けを行って
画像データの各成分色毎の濃度バランスを補正する画像
データの規格化を行う画像データ補正方法。
6. A characteristic data determined according to an exposure amount-color density characteristic of a photosensitive material is stored for each type of the photosensitive material, and the processing object exposed to and recorded on the processing target material and visualized by a developing process. Analyzing the processing target image using read image data obtained by reading an image, and determining weights for the normalization based on the read image data and the normalization based on the characteristic data based on the result of the analysis. Image data correction for performing normalization based on the read image data and normalization weighting based on the characteristic data in accordance with the determined weight to correct the density balance of each component color of the image data; Method.
【請求項7】 前記処理対象画像の解析として、前記読
取画像データから被写体像上での色相が無彩色と推定さ
れる画素のデータの抽出を行い、抽出した画素の数に基
づいて前記重みを決定することを特徴とする請求項6記
載の画像データ補正方法。
7. As the analysis of the processing target image, data of pixels whose hue on the subject image is estimated to be achromatic is extracted from the read image data, and the weight is determined based on the number of extracted pixels. 7. The method according to claim 6, wherein the determination is performed.
【請求項8】 感光材料の露光量−発色濃度特性に応じ
て定めた特性データを感光材料の種類毎に記憶する記憶
手段と、 処理対象の感光材料の種類に基づいて、前記記憶手段に
記憶されている特性データのうち処理対象の感光材料に
対応する特性データを選択する選択手段と、前記処理対
象の感光材料に露光記録され現像処理によって可視化さ
れた処理対象画像を読み取る読取手段と、 前記選択した特性データに基づいて、前記読取手段が処
理対象画像を読み取ることによって得られた読取画像デ
ータが、前記感光材料の露光量−発色濃度特性の線形部
を前記特性が非線形となる露光量域迄延長したに等しい
露光量−発色濃度特性を有する仮想感光材料に前記処理
対象画像と同一の被写体を露光記録し現像処理を行うこ
とで得られる仮想画像を表す仮想画像データと略等しく
なるように、前記読取画像データに対して非線形性補正
を行う補正手段と、 を含む画像処理装置。
8. A storage means for storing, for each type of photosensitive material, characteristic data determined according to the exposure amount-coloring density characteristic of the photosensitive material, and the storage means for storing the characteristic data based on the type of photosensitive material to be processed. Selecting means for selecting characteristic data corresponding to the photosensitive material to be processed among the characteristic data being processed; reading means for reading an image to be processed which is exposed and recorded on the photosensitive material to be processed and visualized by a development process; Based on the selected characteristic data, the read image data obtained by reading the image to be processed by the reading means changes the linear part of the exposure-color density characteristic of the photosensitive material to an exposure range where the characteristic becomes nonlinear. A virtual image obtained by exposing and recording the same subject as the image to be processed on a virtual photosensitive material having an exposure amount-coloring density characteristic equal to To be substantially equal to the virtual image data representing an image processing apparatus including a correction unit for performing nonlinear correction on the read image data.
JP10168823A 1998-06-16 1998-06-16 Image data correcting method and image processor Pending JP2000004361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10168823A JP2000004361A (en) 1998-06-16 1998-06-16 Image data correcting method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10168823A JP2000004361A (en) 1998-06-16 1998-06-16 Image data correcting method and image processor

Publications (1)

Publication Number Publication Date
JP2000004361A true JP2000004361A (en) 2000-01-07

Family

ID=15875185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10168823A Pending JP2000004361A (en) 1998-06-16 1998-06-16 Image data correcting method and image processor

Country Status (1)

Country Link
JP (1) JP2000004361A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356434A (en) * 2000-06-15 2001-12-26 Noritsu Koki Co Ltd Method for regulating exposure
JP2001356431A (en) * 2000-06-15 2001-12-26 Noritsu Koki Co Ltd Exposure method
EP1684128A2 (en) * 2005-01-24 2006-07-26 Oki Data Corporation Printing apparatus having an exposure controller

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001356434A (en) * 2000-06-15 2001-12-26 Noritsu Koki Co Ltd Method for regulating exposure
JP2001356431A (en) * 2000-06-15 2001-12-26 Noritsu Koki Co Ltd Exposure method
JP4635299B2 (en) * 2000-06-15 2011-02-23 ノーリツ鋼機株式会社 Exposure method
EP1684128A2 (en) * 2005-01-24 2006-07-26 Oki Data Corporation Printing apparatus having an exposure controller
EP1684128A3 (en) * 2005-01-24 2009-03-18 Oki Data Corporation Printing apparatus having an exposure controller

Similar Documents

Publication Publication Date Title
US6801334B1 (en) Index print producing method, image processing system, image processing method and image processing device
US6665434B1 (en) Device, method, and recordium for correcting color imbalance of an image
US7880771B2 (en) Imaging apparatus, image processing apparatus, image processing system and image processing method
US6747757B1 (en) Image processing method and apparatus
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
JP2000152017A (en) Method and device for picture correction and recording medium
JP2000106623A (en) Image processing unit
JP3429450B2 (en) Image processing apparatus and image correction method
JP3588418B2 (en) Image correction method, image correction device, and recording medium
JPH1075374A (en) Image processing unit and its method
US6658163B1 (en) Image processing method
JP2000004361A (en) Image data correcting method and image processor
JPH11225270A (en) Image processing method and image processor
JP3559451B2 (en) Image processing method and image processing apparatus
JP2000004351A (en) Image processor
JP3451017B2 (en) Image processing method and apparatus
JP3938818B2 (en) Image processing apparatus and method
JPH11346303A (en) Image processing method
JP2001024887A (en) Method for discriminating similar scene
JP4426009B2 (en) Image processing method and apparatus, and recording medium
JP3740150B2 (en) How to create an index print
JP3579249B2 (en) Index print creation method and image processing system
JP2000078390A (en) Image processing method and device
JPH11331102A (en) Photograph printing system
JP2000082131A (en) Image processor