JP2001036761A - Picture processor and its method - Google Patents

Picture processor and its method

Info

Publication number
JP2001036761A
JP2001036761A JP11205960A JP20596099A JP2001036761A JP 2001036761 A JP2001036761 A JP 2001036761A JP 11205960 A JP11205960 A JP 11205960A JP 20596099 A JP20596099 A JP 20596099A JP 2001036761 A JP2001036761 A JP 2001036761A
Authority
JP
Japan
Prior art keywords
image
processing
processed
recording material
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11205960A
Other languages
Japanese (ja)
Inventor
Hiroshi Yamaguchi
博司 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11205960A priority Critical patent/JP2001036761A/en
Publication of JP2001036761A publication Critical patent/JP2001036761A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the capacity of data storage, to shorten processing time and to prevent an operation result for a processing condition of picture processing from being changed by the reading direction of an image. SOLUTION: A process 100 for inputting the number of frames M of an image using picture data for the operation of a color/density conversion condition for an individual image recorded in a picture film, a process (106 to 114) for setting up an image of M frames to be used for the operation of the conversion condition for the image to be processed in accordance with the position (m) of the image to be processed and the number M of frames, a process 120 for deciding whether the operation of a conversion condition can be executed or not, a process (122 to 128) for reading out images until operation can be attained when picture data are lacking, and a process (130, 132) for operating the conversion condition of the image to be processed and executing color/ density conversion processing are repeated while switching the image to be processed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置及び方
法に係り、特に、画像記録材料に記録された画像を読み
取ることで得られた画像情報に対して画像処理を行う画
像処理装置、及び該画像処理装置に適用可能な画像処理
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus for performing image processing on image information obtained by reading an image recorded on an image recording material. The present invention relates to an image processing method applicable to an image processing device.

【0002】[0002]

【従来の技術】カメラ等によって被写体が撮影記録され
た写真フィルムに対して現像等の処理を行うことで写真
フィルム上に可視化される画像(以下、単に写真フィル
ムに記録された画像という)の色バランスは、写真フィ
ルムそのものの特性や現像処理における処理条件等(以
下、これらをフィルム特性と総称する)の影響を受け、
撮影時の被写体の色バランスに対して偏倚している。こ
のため、写真フィルムに記録された画像を印画紙等の記
録材料に記録したり、ディスプレイ等の表示手段に表示
するにあたっては、記録材料に記録される画像や表示手
段に表示される画像(以下、これらを出力画像と総称す
る)の色バランスが撮影時の被写体の色バランスに一致
するように(撮影時の被写体のグレーの部分が出力画像
上でグレーとして再現されるように)出力画像の色バラ
ンスを補正する必要がある。
2. Description of the Related Art The color of an image (hereinafter simply referred to as an image recorded on a photographic film) visualized on the photographic film by performing processing such as development on a photographic film in which a subject is photographed and recorded by a camera or the like. The balance is affected by the characteristics of the photographic film itself and the processing conditions in the development processing (hereinafter, these are collectively referred to as film characteristics).
It deviates from the color balance of the subject at the time of shooting. For this reason, when an image recorded on a photographic film is recorded on a recording material such as photographic paper or displayed on a display means such as a display, an image recorded on the recording material or an image displayed on the display means (hereinafter, referred to as an image). , These are collectively referred to as output images) so that the color balance of the output image matches the color balance of the subject at the time of shooting (so that the gray portion of the subject at the time of shooting is reproduced as gray on the output image). It is necessary to correct the color balance.

【0003】出力画像の色バランス補正方法として、従
来より種々の補正方法が知られているが、色バランス補
正条件を補正対象の単一の画像の画像情報から求める補
正方法では、例えば補正対象の画像がストロボを使用し
て人物を撮影した画像において人物の顔の頬の部分(肌
色の部分)がハイライトとなっている画像である場合
に、出力画像の色バランスが前記ハイライトに相当する
画素の色の補色の色に偏倚するハイライトフェリアが生
じたり、例えば補正対象の画像が非グレーかつ略一定の
色相の領域(例えば緑の芝生や青い空・海に対応する領
域等)が画像中の比較的広い面積を占めている画像であ
る場合に、出力画像の色バランスが前記領域の色の補色
の色に偏倚するカラーフェリアが生じることが多い、と
いう問題がある。
[0003] As a color balance correction method for an output image, various correction methods have been conventionally known. In a correction method for obtaining a color balance correction condition from the image information of a single image to be corrected, for example, When an image of a person photographed using a strobe is an image in which the cheek portion (skin color portion) of the person's face is highlighted, the color balance of the output image corresponds to the highlight. Highlight felia that deviates to a complementary color of the pixel color may occur, or, for example, an image to be corrected may be a non-gray area having a substantially constant hue (eg, an area corresponding to a green lawn or a blue sky or sea). In the case of an image occupying a relatively large area inside, there is a problem that the color balance of the output image often deviates to a complementary color of the color of the region.

【0004】上記問題を解決するためには、複数の画像
の画像情報から補正条件を求めることが有効であり、例
えば特開平5−297473号公報には、写真フィルム
に記録された画像を読み取ることによって得られた画像
情報を写真フィルム種毎に多数蓄積記憶し、特定のフィ
ルム種の写真フィルムに記録された画像を印画紙に露光
記録するにあたり、前記特定のフィルム種について蓄積
記憶した画像情報の平均に相当する色バランスがグレー
バランスを表しているとみなして露光条件を求めること
が開示されている。
In order to solve the above-mentioned problem, it is effective to determine correction conditions from image information of a plurality of images. For example, Japanese Patent Application Laid-Open No. 5-297473 discloses that an image recorded on a photographic film is read. A large number of image information obtained by photographic film type is accumulated and stored for each photographic film type, and when an image recorded on a photographic film of a specific film type is exposed and recorded on photographic paper, the image information of the specific film type is stored. It is disclosed that an exposure condition is determined on the assumption that a color balance corresponding to an average represents a gray balance.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記公
報に記載の技術では、蓄積記憶した画像情報の平均に相
当する色バランスの精度(グレーバランスに対する偏
差)が、蓄積記憶されている画像情報の内容に依存する
ので、同一の画像を異なる露光装置で印画紙に露光記録
したときに、個々の露光装置が記憶している画像情報の
内容が異なっていると、印画紙に露光記録されたプリン
トの色バランスと相違する。また、同一の露光装置によ
って印画紙に露光記録する場合であっても、例えば同時
プリントと焼き増し等のように期間を空けて同一の画像
を印画紙に露光記録したとすると、前記期間内に新たに
蓄積記憶された画像情報の影響によってプリントの色バ
ランスと相違するという問題があった。
However, in the technology described in the above publication, the accuracy of color balance (deviation from gray balance) corresponding to the average of the stored and stored image information is determined by the contents of the stored and stored image information. When the same image is exposed and recorded on photographic paper with a different exposure device, if the contents of the image information stored in the respective exposure devices are different, the print recorded on the photographic paper is exposed. Different from color balance. Further, even when exposure recording is performed on photographic paper by the same exposure apparatus, if the same image is exposed and recorded on the photographic paper with a time interval such as simultaneous printing and reprinting, new recording is performed within the time period. There is a problem that the color balance differs from the print color balance due to the influence of the image information stored and stored in the printer.

【0006】このため、本願発明者は、1本の写真フィ
ルムに記録された全ての画像の画像情報を用いてグレー
バランスを推定して補正条件を決定する補正方法を提案
している(特願平11−64961号)。しかし、上記
技術では1本の写真フィルムの全ての画像を読み取りを
完了し全ての画像の画像情報が揃ってから補正条件の演
算を行うため、読み取りを開始してから補正条件の演算
を完了する迄に時間がかかると共に、膨大な容量の記憶
手段が必要になるという問題があった。
For this reason, the inventor of the present application has proposed a correction method for estimating a gray balance using image information of all images recorded on one photographic film and determining a correction condition (Japanese Patent Application No. 2002-214,878). Hei 11-64961). However, according to the above-described technology, since the reading of all the images on one photographic film is completed and the calculation of the correction conditions is performed after the image information of all the images is completed, the calculation of the correction conditions is completed after the reading is started. However, there is a problem that it takes a long time and a huge amount of storage means is required.

【0007】また、写真フィルムに記録されている単一
の画像の読み取りが完了する毎に、該読み取りによって
得られた単一の画像情報から画像補正情報を演算して蓄
積記憶すると共に、各画像に対する補正条件を、各画像
毎に補正条件を演算する時点で蓄積記憶されている画像
補正情報を用いて求める方法も提案されているが、この
方法では、写真フィルムに記録された画像の読取方向
(先頭側から読み取るか末尾側から読み取るか)によっ
て、補正条件の演算を開始する時点で蓄積記憶されてい
る画像補正情報の内容が相違するので、各画像に対する
補正条件が画像の読取方向によって相違することにな
る。
Each time a single image recorded on a photographic film is completely read, image correction information is calculated from the single image information obtained by the reading, and stored and stored. A method has been proposed in which a correction condition for the image is obtained using image correction information stored at the time of calculating the correction condition for each image. However, in this method, a reading direction of an image recorded on a photographic film is read. (Reading from the head side or reading from the tail side), the content of the image correction information accumulated and stored at the time of starting the calculation of the correction condition differs, so that the correction condition for each image differs depending on the image reading direction. Will do.

【0008】本発明は上記事実を考慮して成されたもの
で、データの記憶に必要な記憶容量の削減及び処理時間
の短縮を実現でき、画像の読取方向によって画像処理の
処理条件の演算結果が変化することを防止できる画像処
理装置及び方法を得ることが目的である。
The present invention has been made in consideration of the above facts, and can reduce the storage capacity required for storing data and the processing time, and can calculate the processing results of the image processing conditions depending on the image reading direction. It is an object of the present invention to provide an image processing apparatus and method capable of preventing the change of the image.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る画像処理装置は、長尺状の
画像記録材料に記録された複数の画像を順に読み取る読
取手段と、前記画像記録材料に記録されている画像を前
記読取手段が読み取ることで得られた画像情報を記憶す
る記憶手段と、処理対象の画像の画像情報に対する画像
処理の処理条件を、前記処理対象の画像及び画像記録材
料上で前記処理対象の画像と近接した位置に記録されて
いる画像から成る、前記画像記録材料に記録された画像
の総齣数よりも少ない所定の齣数の画像の画像情報を用
いて演算することを、前記画像記録材料に記録されてい
る各画像を処理対象の画像として順に行う演算手段と、
を含んで構成されている。
According to an aspect of the present invention, there is provided an image processing apparatus comprising: a reading unit for sequentially reading a plurality of images recorded on a long image recording material; A storage unit for storing image information obtained by reading the image recorded on the image recording material by the reading unit, and a processing condition of image processing for the image information of the image to be processed; And the image information of an image having a predetermined number of exposures smaller than the total number of exposures of the image recorded on the image recording material, the image information comprising an image recorded at a position close to the image to be processed on the image recording material. A computing unit that performs computation using, sequentially performing each image recorded on the image recording material as an image to be processed,
It is comprised including.

【0010】請求項1記載の発明では、長尺状の画像記
録材料に記録された複数の画像を順に読み取る読取手段
が設けられており、読取手段が画像を読み取ることで得
られた画像情報は記憶手段に記憶される。また、請求項
1の発明に係る演算手段は、処理対象の画像の画像情報
に対する画像処理の処理条件を、処理対象の画像及び画
像記録材料上で処理対象の画像と近接した位置に記録さ
れている画像から成る、画像記録材料に記録された画像
の総齣数よりも少ない所定の齣数の画像の画像情報を用
いて演算することを、画像記録材料に記録されている各
画像を処理対象の画像として順に行う。
According to the first aspect of the present invention, there is provided a reading means for sequentially reading a plurality of images recorded on a long image recording material, and image information obtained by reading the images by the reading means is provided. It is stored in the storage means. The calculating means according to the first aspect of the present invention stores the processing conditions of the image processing on the image information of the processing target image at a position close to the processing target image on the processing target image and the image recording material. Calculation using the image information of images having a predetermined number of exposures smaller than the total number of exposures of the images recorded on the image recording material, the processing being performed on each image recorded on the image recording material. Are sequentially performed as images of

【0011】請求項1の発明における所定の齣数は画像
記録材料に記録された画像の総齣数よりも少ないので、
総齣数分の画像の画像情報が記憶手段に記憶される前に
(所定の齣数の画像の画像情報が記憶手段に記憶された
時点で)、演算手段が画像処理の処理条件の演算を行う
ことができ、処理時間を短縮することができる。また、
各画像について画像処理の処理条件の演算にあたって総
齣数分の画像の画像情報を記憶する必要がなくなり、デ
ータ(画像情報)の記憶に必要な記憶容量を削減するこ
とができる。
Since the predetermined number of exposures is smaller than the total number of exposures of the image recorded on the image recording material,
Before the image information of the images of the total number of exposures is stored in the storage means (at the time when the image information of the image of the predetermined number of exposures is stored in the storage means), the calculation means calculates the processing conditions of the image processing. And the processing time can be reduced. Also,
In calculating the image processing conditions for each image, it is not necessary to store the image information of the images for the total number of exposures, and the storage capacity required for storing data (image information) can be reduced.

【0012】更に、処理対象の画像についての画像処理
の処理条件の演算が、処理対象の画像及び画像記録材料
上で処理対象の画像と近接した位置に記録されている画
像から成る所定の齣数の画像の画像情報を用いて行われ
るので、読取手段による画像の読取方向に拘わらず、各
画像についての画像処理の処理条件の演算が、各画像毎
に一定の画像の画像情報を用いて行われることになる。
従って、画像の読取方向によって画像処理の処理条件の
演算結果が変化することを防止することができる。
Further, the calculation of the processing conditions of the image processing for the image to be processed is performed by determining the predetermined number of exposures consisting of the image to be processed and the image recorded at a position close to the image to be processed on the image recording material. Is performed using the image information of the image, the calculation of the image processing condition for each image is performed using the image information of the fixed image for each image, regardless of the reading direction of the image by the reading unit. Will be
Therefore, it is possible to prevent the calculation result of the processing condition of the image processing from changing depending on the image reading direction.

【0013】請求項2記載の発明に係る画像処理装置
は、長尺状の画像記録材料に記録された複数の画像を順
に読み取る読取手段と、前記画像記録材料に記録されて
いる画像を前記読取手段が読み取ることで得られた画像
情報を記憶する記憶手段と、処理対象の画像の画像情報
に対する画像処理の処理条件を、前記処理対象の画像及
び画像記録材料上で前記処理対象の画像と近接した位置
に記録されている画像から成る予め設定された齣数の画
像の画像情報を用いて演算することを、前記画像記録材
料に記録されている各画像を処理対象の画像として順に
行う演算手段と、前記演算手段が前記各画像について画
像処理の処理条件を演算する際に画像情報を用いる画像
の齣数を設定するための設定手段と、を含んで構成され
ている。
According to a second aspect of the present invention, there is provided an image processing apparatus, comprising: reading means for sequentially reading a plurality of images recorded on a long image recording material; and reading the image recorded on the image recording material. A storage unit for storing image information obtained by reading by the unit, and a processing condition of image processing for the image information of the image to be processed, the processing condition of the image to be processed and the image to be processed being close to the image of the processing target on the image recording material. Calculating means for performing the calculation using the image information of the image of the preset number of exposures consisting of the images recorded at the set positions, sequentially as the images to be processed, the images recorded on the image recording material And setting means for setting the number of exposures of an image using image information when the calculating means calculates the processing conditions of image processing for each of the images.

【0014】請求項2記載の発明では、請求項1の発明
と同様の読取手段及び記憶手段が設けられていると共
に、演算手段が各画像について画像処理の処理条件を演
算する際に画像情報を用いる画像の齣数を設定するため
の設定手段が設けられている。この設定手段としては、
例えばキーボード等の情報入力手段や、マウスやディジ
タイザ等のポインティングデバイスで構成される情報指
定手段で構成することができる。
According to the second aspect of the present invention, the same reading means and storage means as those of the first aspect of the invention are provided, and the arithmetic means calculates the image information when calculating the image processing conditions for each image. A setting means for setting the number of exposures of an image to be used is provided. As this setting means,
For example, it can be configured by an information input unit such as a keyboard or an information designating unit configured by a pointing device such as a mouse or a digitizer.

【0015】そして、請求項2の発明に係る演算手段
は、処理対象の画像の画像情報に対する画像処理の処理
条件を、処理対象の画像及び画像記録材料上で処理対象
の画像と近接した位置に記録されている画像から成る予
め設定された齣数の画像の画像情報を用いて演算するこ
とを、画像記録材料に記録されている各画像を処理対象
の画像として順に行う。これにより、画像記録材料に記
録された画像の総齣数よりも少ない齣数が設定手段を介
して設定されれば、各画像についての画像処理の処理条
件の演算が、前記総齣数よりも少ない齣数の画像の画像
情報を用いて各々行われるので、請求項1の発明と同様
に、データの記憶に必要な記憶容量の削減及び処理時間
の短縮を実現することができる。
According to a second aspect of the present invention, the calculating means sets the image processing conditions for the image information of the image to be processed to a position close to the image to be processed and the image to be processed on the image recording material. The calculation using the image information of the images having a preset number of exposures composed of the recorded images is sequentially performed with the images recorded on the image recording material as the images to be processed. Thus, if the number of exposures smaller than the total number of exposures of the images recorded on the image recording material is set via the setting unit, the calculation of the processing conditions of the image processing for each image is performed more than the total number of exposures. Since each of them is performed using image information of an image having a small number of exposures, it is possible to reduce the storage capacity required for storing data and the processing time as in the first aspect of the present invention.

【0016】また、処理対象の画像についての画像処理
の処理条件の演算が、処理対象の画像、及び画像記録材
料上で処理対象の画像と近接した位置に記録されている
画像(読取手段による読取順が近い画像)から成る、予
め設定された齣数の画像の画像情報を用いて行われるの
で、請求項1の発明と同様に、読取手段による画像の読
取方向に拘わらず、各画像についての画像処理の処理条
件の演算が、各画像毎に一定の画像の画像情報を用いて
行われることになる。従って、画像の読取方向によって
画像処理の処理条件の演算結果が変化することを防止で
きる。
In addition, the calculation of the processing conditions of the image processing for the image to be processed includes the processing of the image to be processed and the image recorded on the image recording material at a position close to the image to be processed (read by the reading means). This is performed by using image information of images of a predetermined number of exposures, which are images having a similar order, so that the image processing is performed for each image irrespective of the image reading direction by the reading unit as in the first aspect of the present invention. The calculation of the processing conditions of the image processing is performed using the image information of a fixed image for each image. Accordingly, it is possible to prevent the calculation result of the processing condition of the image processing from being changed depending on the image reading direction.

【0017】更に、請求項2の発明では、画像処理の処
理条件を演算する際に画像情報を用いる画像の齣数を設
定手段を介して設定可能であるので、例えば記憶手段の
記憶容量が変更された等の場合に、変更後の記憶容量に
応じて前記齣数を変更することも可能となる。
Further, according to the second aspect of the present invention, the number of exposures of an image using image information can be set via the setting means when calculating the processing conditions of the image processing. In such a case, the number of exposures can be changed according to the changed storage capacity.

【0018】なお、請求項1又は請求項2の発明におい
て、演算手段によって演算される画像処理の処理条件と
しては、例えば色・濃度変換処理の処理条件が挙げられ
る。色・濃度変換処理の処理条件は、例えば単一の画像
の画像情報に基づいて前記画像の画像特性値を求め、求
めた画像特性値に基づいて前記画像情報から被写体のグ
レーの部分に対応する画素である可能性の高いグレー候
補画素を抽出することを、前記所定の齣数又は予め設定
された齣数の画像について各々行い、前記所定の齣数又
は予め設定された齣数の画像から各々抽出されたグレー
候補画素から成るグレー候補画素群の所定の座標上での
分布に基づいてグレーバランスを推定し、グレーバラン
スの推定結果に基づいて演算によって求めることができ
る。
In the first or second aspect of the invention, the processing conditions of the image processing calculated by the calculating means include, for example, the processing conditions of the color / density conversion processing. The processing conditions of the color / density conversion processing include, for example, obtaining an image characteristic value of the image based on image information of a single image, and corresponding to a gray portion of the subject from the image information based on the obtained image characteristic value. Extracting a gray candidate pixel that is likely to be a pixel is performed for each of the images of the predetermined number of exposures or a preset number of exposures, and from the image of the predetermined number of exposures or the number of preset exposures, respectively. The gray balance can be estimated based on the distribution of the extracted gray candidate pixel group of gray candidate pixels on predetermined coordinates, and can be obtained by calculation based on the gray balance estimation result.

【0019】ところで、同一又は類似のシーンを表す複
数の画像(以下、類似画像群と称する)は、類似画像群
に属する各画像の画像情報に対する画像処理を同一又は
近似した処理条件で行うことで、画像処理後の画像情報
が表す各画像の仕上がりを近似させることが望ましい
が、類似画像群か否かを判別する処理は非常に複雑であ
る。これに対し、請求項3記載の発明は、請求項1又は
請求項2の発明において、演算手段は、画像処理の処理
条件の演算に画像情報を用いる処理対象の画像以外の画
像を、読取手段による画像の読取方向に沿って処理対象
の画像の前側の画像の齣数と後側の画像の齣数が略同一
となるように選択することを特徴としている。
By the way, a plurality of images representing the same or similar scenes (hereinafter referred to as similar image group) are obtained by performing image processing on the image information of each image belonging to the similar image group under the same or similar processing conditions. Although it is desirable to approximate the finish of each image represented by the image information after the image processing, the process of determining whether or not the images belong to a similar image group is very complicated. On the other hand, according to a third aspect of the present invention, in the first or second aspect, the calculating means reads the image other than the processing target image using the image information for calculating the processing conditions of the image processing. Is selected so that the number of exposures of the front image of the image to be processed and the number of exposures of the rear image thereof are substantially the same along the image reading direction according to.

【0020】例えば写真フィルム等の画像記録材料では
類似画像群に属する各画像が連続して記録されることが
多く、これに伴って、読取手段による画像の読み取りに
おいても、類似画像群に属する各画像が連続して読み取
られることが多い。請求項3の発明では、画像処理の処
理条件の演算に画像情報を用いる処理対象の画像以外の
画像を、読取手段による画像の読取方向に沿って処理対
象の画像の前側の画像の齣数と後側の画像の齣数が略同
一となるように選択するので、処理対象の画像の前側又
は後側に齣数が偏るように画像を選択する場合と比較し
て、画像記録材料に記録されている画像の中に類似画像
群が存在していたときに、類似画像群の個々の画像毎の
画像処理の処理条件の演算に際し、画像処理の処理条件
の演算に画像情報が用いられる所定の齣数又は予め設定
された齣数の画像に含まれる、類似画像群に属する画像
の割合が均されることになる。
For example, in an image recording material such as a photographic film, each image belonging to the similar image group is often recorded continuously, and accordingly, even when the image is read by the reading means, each image belonging to the similar image group is read. Images are often read continuously. According to the third aspect of the present invention, an image other than the image to be processed using the image information for the calculation of the processing conditions of the image processing is read along with the number of exposures of the image before the image to be processed along the reading direction of the image by the reading means. Since the number of exposures of the rear image is selected to be substantially the same, compared to the case where the image is selected so that the number of exposures is biased to the front or rear side of the image to be processed, the number of exposures recorded on the image recording material is reduced. When a similar image group is present in an image that is being processed, when calculating image processing conditions for each image of the similar image group, image information is used to calculate image processing conditions. The proportion of images belonging to the similar image group included in the number of exposures or the image of the preset number of exposures is equalized.

【0021】従って、請求項3の発明によれば、類似画
像群の有無を判別する等の複雑な処理を行うことなく、
類似画像群に属する各画像の画像情報に対する画像処理
の処理条件を同一又は近似させることができる。
Therefore, according to the third aspect of the present invention, it is possible to perform a complicated process such as determining whether or not there is a similar image group without performing a complicated process.
The processing conditions for image processing on the image information of each image belonging to the similar image group can be the same or approximate.

【0022】なお、上記のように処理対象の画像につい
ての画像処理の処理条件の演算に、読取手段による読取
方向に沿った位置(読取手段による読取順)が一定の関
係を有する画像の画像情報を用いる態様では、画像記録
材料上での処理対象の画像の位置によっては(例えば処
理対象の画像が長尺状の画像記録材料の先頭に位置して
いる等)、前記一定の関係を有する画像が存在しない場
合がある。
As described above, in the calculation of the processing conditions of the image processing for the image to be processed, the position along the reading direction by the reading means (reading order by the reading means) has a fixed relationship with the image information of the image. In the aspect using the image, the image having the certain relationship may be dependent on the position of the image to be processed on the image recording material (for example, the image to be processed is located at the head of the long image recording material). May not exist.

【0023】上記を考慮すると、請求項4に記載したよ
うに、画像記録材料に記録されている各画像についての
画像処理の処理条件の演算を、画像記録材料上での各画
像の位置に応じたタイミングで各々行うことが好まし
い。一例として、処理対象の画像についての画像処理の
処理条件の演算に、読取手段による読取方向に沿った位
置が一定の関係を有する画像の画像情報を用いる態様に
おいて、前記一定の関係を有する画像が存在しない画像
については、画像処理の処理条件の演算に画像情報を用
いる所定の齣数又は予め設定された齣数の画像を一定の
基準に従って定め、定めた画像の画像情報が揃ったタイ
ミングで画像処理の処理条件の演算を行うことができ
る。これにより、処理対象の画像の画像記録材料上での
位置に拘わらず、最適なタイミングで画像処理の処理条
件の演算を行うことができる。
In consideration of the above, as described in claim 4, the calculation of the processing conditions of the image processing for each image recorded on the image recording material is performed according to the position of each image on the image recording material. It is preferable to carry out each of them at the right timing. As an example, in a mode in which image information of an image whose position along the reading direction by the reading unit has a certain relationship is used for calculating the processing condition of the image processing for the image to be processed, the image having the certain relationship is For an image that does not exist, an image having a predetermined number of exposures or a predetermined number of exposures using image information for calculating the processing conditions of the image processing is determined according to a predetermined standard, and the image is determined at the timing when the image information of the determined image is completed. Calculation of the processing conditions of the processing can be performed. This makes it possible to calculate the processing conditions of the image processing at an optimal timing regardless of the position of the image to be processed on the image recording material.

【0024】また、請求項2の発明のように、各画像に
ついて画像処理の処理条件を演算する際に画像情報を用
いる画像の齣数を設定するための設定手段が設けられて
いる場合、画像処理の処理条件を行う最適なタイミング
は、設定された齣数によっても変化する。これに対し、
請求項5記載の発明は、画像記録材料に記録されている
各画像について画像処理の処理条件の演算を行うタイミ
ングを、設定手段によって設定された齣数に応じて変更
するので、設定手段を介して設定された齣数に拘わらず
最適なタイミングで画像処理の処理条件の演算を行うこ
とができる。
Also, in the case where setting means for setting the number of exposures of an image using image information when calculating processing conditions of image processing for each image is provided, as in the second aspect of the present invention, The optimal timing for performing the processing conditions of the processing also changes depending on the set number of exposures. In contrast,
According to the fifth aspect of the present invention, the timing for calculating the processing conditions of the image processing for each image recorded on the image recording material is changed according to the number of exposures set by the setting means. It is possible to calculate the processing conditions of the image processing at the optimum timing regardless of the number of exposures set in the above.

【0025】請求項6記載の発明に係る画像処理方法
は、長尺状の画像記録材料に記録された画像を読み取
り、読み取りによって得られた画像情報を記憶手段に記
憶することを、前記画像記録材料に記録された複数の画
像について順に行うと共に、処理対象の画像の画像情報
に対する画像処理の処理条件を、前記処理対象の画像及
び画像記録材料上で前記処理対象の画像と近接した位置
に記録されている画像から成る、前記画像記録材料に記
録された画像の総齣数よりも少ない所定の齣数の画像の
画像情報を用いて演算することを、前記画像記録材料に
記録されている各画像を処理対象の画像として順に行う
ので、請求項1の発明と同様に、データの記憶に必要な
記憶容量の削減及び処理時間の短縮を実現でき、画像の
読取方向によって画像処理の処理条件の演算結果が変化
することを防止することができる。
According to a sixth aspect of the present invention, in the image processing method, an image recorded on a long image recording material is read, and image information obtained by the reading is stored in a storage unit. A plurality of images recorded on the material are sequentially performed, and the processing conditions of the image processing for the image information of the image to be processed are recorded at a position close to the image to be processed and the image to be processed on the image recording material. It is possible to calculate using image information of an image having a predetermined number of exposures smaller than the total number of exposures of the image recorded on the image recording material, the image being recorded on the image recording material. Since images are sequentially processed as images to be processed, a reduction in storage capacity required for storing data and a reduction in processing time can be realized, as in the first aspect of the invention. It is possible to prevent the operation result of physical processing conditions are changed.

【0026】請求項7記載の発明に係る画像処理方法
は、長尺状の画像記録材料に記録された各画像の画像情
報に対する画像処理の処理条件を演算する際に画像情報
を用いる画像の齣数を予め設定しておき、前記画像記録
材料に記録された画像を読み取り、読み取りによって得
られた画像情報を記憶手段に記憶することを、前記画像
記録材料に記録された複数の画像について順に行うと共
に、処理対象の画像の画像情報に対する画像処理の処理
条件を、前記処理対象の画像及び画像記録材料上で前記
処理対象の画像と近接した位置に記録されている画像か
ら成る前記設定した齣数の画像の画像情報を用いて演算
することを、前記画像記録材料に記録されている各画像
を処理対象の画像として順に行うので、請求項2の発明
と同様に、データの記憶に必要な記憶容量の削減及び処
理時間の短縮を実現でき、画像の読取方向によって画像
処理の処理条件の演算結果が変化することを防止するこ
とができる。
According to a seventh aspect of the present invention, there is provided an image processing method which uses image information when calculating image processing conditions for image information of each image recorded on a long image recording material. The number is set in advance, and the image recorded on the image recording material is read, and the image information obtained by the reading is stored in the storage unit in order for the plurality of images recorded on the image recording material. Along with the processing conditions of the image processing for the image information of the image to be processed, the set number of exposures comprising the image to be processed and the image recorded at a position close to the image to be processed on an image recording material. The calculation using the image information of the image is sequentially performed on each image recorded on the image recording material as an image to be processed. Can achieve shortening of the reduction and processing time storage capacity required for 憶, calculation results of the processing conditions of the image processing by the reading direction of the image can be prevented from being changed.

【0027】[0027]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。図1には、本発明が適
用された画像処理システム10が示されている。画像処
理システム10は、フィルムスキャナ12、画像処理装
置14及びプリンタ16が直列に接続されて構成されて
いる。なお、フィルムスキャナ12及び画像処理装置1
4は本発明に係る画像処理装置に対応している。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows an image processing system 10 to which the present invention is applied. The image processing system 10 includes a film scanner 12, an image processing device 14, and a printer 16 connected in series. The film scanner 12 and the image processing device 1
Reference numeral 4 corresponds to the image processing apparatus according to the present invention.

【0028】フィルムスキャナ12は、写真フィルム2
6(例えばネガフィルムやリバーサルフィルム)等の写
真感光材料(以下単に写真フィルムと称する)に記録さ
れている画像(被写体を撮影後、現像処理されることで
可視化されたネガ画像又はポジ画像)を読み取り、該読
み取りによって得られた画像データを出力するものであ
り、ハロゲンランプ等から成り写真フィルム26に光を
照射する光源20を備えている。
The film scanner 12 is a photographic film 2
6 (for example, a negative film or a reversal film) or another image (hereinafter simply referred to as a photographic film) recorded on a photographic material (a negative image or a positive image visualized by photographing a subject and developing it). The light source 20 is for reading and outputting image data obtained by the reading. The light source 20 includes a halogen lamp or the like and irradiates the photographic film 26 with light.

【0029】光源20の光射出側には、写真フィルム2
6に照射する光の光量を調節するための絞り21、フィ
ルタユニット23、写真フィルム26に照射する光を拡
散光とする光拡散ボックス22が順に配置されている。
フィルタユニット23は、R光のみ透過させるフィルタ
と、G光のみ透過させるフィルタと、B光のみ透過させ
るフィルタ23Yの3個のフィルタがターレットに嵌め
込まれて構成されている。
On the light exit side of the light source 20, a photographic film 2
A stop 21, a filter unit 23, and a light diffusion box 22 for diffusing the light irradiated on the photographic film 26 are arranged in this order.
The filter unit 23 is configured by fitting three filters, a filter that transmits only R light, a filter that transmits only G light, and a filter 23Y that transmits only B light, into a turret.

【0030】写真フィルム26を挟んで光源20と反対
側には、光軸Lに沿って、写真フィルム26を透過した
光を結像させる結像レンズ28、エリアCCD30が順
に配置されている。エリアCCD30は多数のCCDセ
ルがマトリクス状に配列されたモノクロのCCDであ
り、受光面が結像レンズ28の結像点位置に略一致する
ように配置されている。また、エリアCCD30と結像
レンズ28との間にはシャッタ(図示省略)が設けられ
ている。
On the opposite side of the photographic film 26 from the light source 20, an imaging lens 28 for forming an image of light transmitted through the photographic film 26 and an area CCD 30 are arranged in order along the optical axis L. The area CCD 30 is a monochrome CCD in which a large number of CCD cells are arranged in a matrix, and is arranged such that the light receiving surface substantially coincides with the imaging point position of the imaging lens 28. A shutter (not shown) is provided between the area CCD 30 and the imaging lens 28.

【0031】エリアCCD30はCCDドライバ31を
介してスキャナ制御部33に接続されている。スキャナ
制御部33はCPU、ROM(例えば記憶内容を書換え
可能なROM)、RAM及び入出力ポートを備え、これ
らがバス等を介して互いに接続されて構成されている。
スキャナ制御部33はフィルムスキャナ12の各部の動
作を制御する。また、CCDドライバ31はエリアCC
D30を駆動するための駆動信号を生成し、エリアCC
D30の駆動を制御する。
The area CCD 30 is connected to a scanner controller 33 via a CCD driver 31. The scanner control unit 33 includes a CPU, a ROM (for example, a ROM whose storage content is rewritable), a RAM, and an input / output port, which are connected to each other via a bus or the like.
The scanner control unit 33 controls the operation of each unit of the film scanner 12. In addition, the CCD driver 31 has an area CC.
A drive signal for driving D30 is generated, and area CC is generated.
The driving of D30 is controlled.

【0032】写真フィルム26はフィルムキャリア24
によって搬送され、画像の画面中心が光軸Lに一致する
位置(読取位置)に位置決めされる。また、スキャナ制
御部33は画像が読取位置に位置決めされている状態
で、フィルタユニット23の各フィルタが順に光軸L上
に位置するようにターレットを回転駆動させると共に、
所定の読取条件に対応するエリアCCD30の電荷蓄積
時間をCCDドライバ31へ設定し、絞り21を前記所
定の読取条件に対応する位置へ移動させる。
The photographic film 26 is a film carrier 24
And the image is positioned at a position (reading position) where the center of the screen of the image coincides with the optical axis L. Further, while the image is positioned at the reading position, the scanner control unit 33 rotates the turret so that each filter of the filter unit 23 is sequentially positioned on the optical axis L, and
The charge accumulation time of the area CCD 30 corresponding to the predetermined reading condition is set in the CCD driver 31, and the aperture 21 is moved to a position corresponding to the predetermined reading condition.

【0033】これにより、写真フィルム26上の画像記
録領域にフィルタユニット23の各フィルタに対応する
波長域(R又はG又はB)の光が順に照射され、写真フ
ィルム26上の画像記録領域を透過した光はエリアCC
D30によって検出され(詳しくは光電変換され)、透
過光量を表す信号としてエリアCCD30から出力され
る。エリアCCD30から出力された信号は、A/D変
換器32によって透過光量を表すデジタルの画像データ
に変換されて画像処理装置14に入力される。
As a result, the image recording area on the photographic film 26 is irradiated with light in the wavelength range (R, G, or B) corresponding to each filter of the filter unit 23 in order, and transmitted through the image recording area on the photographic film 26. The shining light is area CC
It is detected by D30 (specifically, photoelectrically converted) and output from the area CCD 30 as a signal representing the amount of transmitted light. The signal output from the area CCD 30 is converted into digital image data representing the amount of transmitted light by the A / D converter 32 and input to the image processing device 14.

【0034】画像処理装置14のスキャナ補正部36
は、入力された画像データ(フィルムスキャナ12から
入力されるR、G、Bのデータ)に対し、暗補正、濃度
変換、シェーディング補正等の各種の補正処理を順に行
う。スキャナ補正部36の出力端はI/Oコントローラ
38の入力端に接続されており、スキャナ補正部36で
前記各処理が施された画像データはI/Oコントローラ
38に入力される。I/Oコントローラ38の入力端
は、イメージプロセッサ40のデータ出力端にも接続さ
れており、イメージプロセッサ40から画像処理(詳細
は後述)が行われた画像データが入力される。
The scanner correction unit 36 of the image processing device 14
Performs various correction processes such as dark correction, density conversion, and shading correction on input image data (R, G, and B data input from the film scanner 12) in order. An output terminal of the scanner correction unit 36 is connected to an input terminal of the I / O controller 38, and the image data subjected to each of the processes in the scanner correction unit 36 is input to the I / O controller 38. An input terminal of the I / O controller 38 is also connected to a data output terminal of the image processor 40, and receives image data subjected to image processing (details will be described later) from the image processor 40.

【0035】また、I/Oコントローラ38の入力端は
制御部42にも接続されている。制御部42は拡張スロ
ット(図示省略)を備えており、この拡張スロットに
は、デジタルスチルカメラに装填可能なPCカードやI
Cカード(以下、これらをデジタルカメラカードと総称
する)、CD−ROMやMO、CD−R等の情報記憶媒
体に対してデータ(或いはプログラム)の読出し/書込
みを行うドライバ(図示省略)や、他の情報処理機器と
通信を行うための通信制御装置が接続される。拡張スロ
ットを介して外部から入力された画像データはI/Oコ
ントローラ38へ入力される。
The input terminal of the I / O controller 38 is also connected to the control unit 42. The control unit 42 has an expansion slot (not shown). The expansion slot includes a PC card or an I / O card that can be loaded into the digital still camera.
A driver (not shown) for reading / writing data (or a program) from / to an information storage medium such as a C card (hereinafter collectively referred to as a digital camera card), a CD-ROM, an MO, and a CD-R; A communication control device for communicating with another information processing device is connected. Image data input from outside via the expansion slot is input to the I / O controller 38.

【0036】I/Oコントローラ38の出力端は、イメ
ージプロセッサ40のデータ入力端及び制御部42に各
々接続されており、更にI/F回路54を介してプリン
タ16に接続されている。I/Oコントローラ38は、
入力された画像データを、出力端に接続された前記各機
器に選択的に出力する。
The output terminal of the I / O controller 38 is connected to the data input terminal of the image processor 40 and the control unit 42, and further connected to the printer 16 via the I / F circuit 54. The I / O controller 38
The input image data is selectively output to each of the devices connected to the output terminal.

【0037】本実施形態では、フィルムスキャナ12に
おいて、写真フィルム26に記録されている個々の画像
に対し、異なる解像度で連続的に2回の読み取りを行
う。なお、本実施形態のように読取センサとしてエリア
センサ(エリアCCD30)を用いた態様において、読
み取りの解像度の切り替え(各回の読み取りで異なる解
像度の画像データを得ること)は、例えばプレスキャン
時もファインスキャン時と同一の高解像度で読み取りを
行い、得られた画像データに対して画素の間引き又は画
素の統合等の後処理を行うか、或いはファインスキャン
時にはエリアセンサによって読み取りを複数回行うと共
に、各回の読み取り時にピエゾ素子等のアクチュエータ
により画素間隔の整数分の1に相当する距離だけエリア
センサを移動させることで実現できる。
In this embodiment, the film scanner 12 continuously reads each image recorded on the photographic film 26 twice at different resolutions. In the embodiment using the area sensor (area CCD 30) as the reading sensor as in the present embodiment, switching of the reading resolution (obtaining image data of different resolutions in each reading) is performed, for example, in fine scanning even during pre-scanning. Scanning is performed at the same high resolution as during scanning, and post-processing such as pixel thinning or pixel integration is performed on the obtained image data. The reading can be realized by moving the area sensor by a distance corresponding to an integer fraction of the pixel interval by an actuator such as a piezo element at the time of reading.

【0038】1回目の比較的低解像度での読み取り(プ
レスキャン)では、画像の濃度が非常に低い場合にも、
エリアCCD30で蓄積電荷の飽和が生じないように決
定した読取条件(写真フィルム26に照射する光のR、
G、Bの各波長域毎の光量、エリアCCD30の電荷蓄
積時間)で各画像の読み取りが行われる。このプレスキ
ャンによって得られたデータ(プレスキャン画像デー
タ)は、I/Oコントローラ38から制御部42へ入力
される。
In the first reading at a relatively low resolution (pre-scan), even when the image density is very low,
Reading conditions (R, R of light applied to the photographic film 26, determined so as not to cause saturation of accumulated charges in the area CCD 30)
Each image is read based on the amount of light for each of the G and B wavelength ranges and the charge accumulation time of the area CCD 30). Data (pre-scan image data) obtained by this pre-scan is input from the I / O controller 38 to the control unit 42.

【0039】制御部42は、CPU46、RAM48、
ROM50(例えば記憶内容を書換え可能なROM)、
入出力ポート52を備え、これらがバスを介して互いに
接続されて構成されている。なお、RAM48は大容量
のフレームメモリを含んで構成されており、フィルムス
キャナ12から入力された画像データ(プレスキャン画
像データ及びファインスキャン画像データ)はRAM4
8に一旦記憶される。このように、RAM48は本発明
の記憶手段に対応している。
The control unit 42 includes a CPU 46, a RAM 48,
ROM 50 (for example, a ROM whose storage content can be rewritten),
An input / output port 52 is provided, and these are connected to each other via a bus. Note that the RAM 48 includes a large-capacity frame memory, and image data (pre-scan image data and fine scan image data) input from the film scanner 12 is stored in the RAM 4.
8 is stored once. Thus, the RAM 48 corresponds to the storage unit of the present invention.

【0040】制御部42は、I/Oコントローラ38か
ら入力されたプレスキャン画像データに基づいて画像の
濃度等の画像特徴量を演算し、各画像に対し、フィルム
スキャナ12が比較的高解像度での再度の読み取り(フ
ァインスキャン)を行う際の読取条件を決定し、決定し
た読取条件をフィルムスキャナ12に出力する。
The control unit 42 calculates image features such as image density based on the prescanned image data input from the I / O controller 38, and the film scanner 12 operates at a relatively high resolution for each image. The reading conditions for re-scanning (fine scan) are determined, and the determined reading conditions are output to the film scanner 12.

【0041】また制御部42は、プレスキャン画像デー
タに基づいて、画像中の主要画像領域(例えば人物の顔
に相当する領域(顔領域))の抽出を含む画像特徴量の演
算を行い、フィルムスキャナ12がファインスキャンを
行うことによって得られる画像データ(ファインスキャ
ン画像データ)に対する各種の画像処理の処理条件を演
算により自動的に決定し(セットアップ演算)、決定し
た処理条件をイメージプロセッサ40へ出力する。ま
た、制御部42のバスには画像等を表示するためのディ
スプレイ43、情報を入力するためのキーボード44及
びマウス(図示省略)が接続されている。
The control unit 42 calculates an image feature amount including extraction of a main image area (for example, an area corresponding to a person's face (face area)) in the image based on the prescanned image data. The scanner 12 automatically determines the processing conditions of various image processing for the image data (fine scan image data) obtained by performing the fine scan by calculation (setup calculation), and outputs the determined processing conditions to the image processor 40. I do. A display 43 for displaying images and the like, a keyboard 44 for inputting information, and a mouse (not shown) are connected to the bus of the control unit 42.

【0042】一方、フィルムスキャナ12で画像に対し
てファインスキャンが行われることによってI/Oコン
トローラ38に入力された画像データ(ファインスキャ
ン画像データ)は、制御部42のRAM48に一旦記憶
された後にイメージプロセッサ40へ入力される。
On the other hand, the image data (fine scan image data) input to the I / O controller 38 by performing the fine scan on the image by the film scanner 12 is temporarily stored in the RAM 48 of the control unit 42 and thereafter. Input to the image processor 40.

【0043】イメージプロセッサ40は、階調変換や色
変換を含む色・濃度変換処理、画素密度変換処理、画像
の超低周波輝度成分の階調を圧縮するハイパートーン処
理、粒状を抑制しながらシャープネスを強調するハイパ
ーシャープネス処理等の各種の画像処理を行う画像処理
回路を各々備えており、入力された画像データに対し、
制御部42によって各画像毎に決定されて通知された処
理条件に従って種々の画像処理を行う。
The image processor 40 includes a color / density conversion process including a tone conversion and a color conversion, a pixel density conversion process, a hypertone process for compressing a tone of an ultra-low frequency luminance component of an image, and a sharpness while suppressing graininess. Image processing circuits for performing various image processing such as hyper-sharpness processing for enhancing the image data.
Various image processing is performed according to the processing conditions determined and notified for each image by the control unit 42.

【0044】イメージプロセッサ40で画像処理が行わ
れた画像データを印画紙への画像の記録に用いる場合に
は、イメージプロセッサ40で画像処理が行われた画像
データは、I/Oコントローラ38からI/F回路54
を介し記録用画像データとしてプリンタ16へ出力され
る。また、画像処理後の画像データを画像ファイルとし
て外部へ出力する場合は、I/Oコントローラ38から
制御部42へ画像データが出力される。これにより、制
御部42では、外部への出力用としてI/Oコントロー
ラ38から入力された画像データを、拡張スロットを介
して画像ファイルとして外部(前記ドライバや通信制御
装置等)に出力する。
When the image data processed by the image processor 40 is used for recording an image on photographic paper, the image data processed by the image processor 40 is transmitted from the I / O controller 38 to the I / O controller 38. / F circuit 54
Is output to the printer 16 as image data for recording via the. When the image data after the image processing is output to the outside as an image file, the image data is output from the I / O controller 38 to the control unit 42. As a result, the control unit 42 outputs the image data input from the I / O controller 38 for output to the outside to the outside (the driver, the communication control device, or the like) as an image file via the expansion slot.

【0045】プリンタ16は、画像メモリ58、R,
G,Bのレーザ光源60、該レーザ光源60の作動を制
御するレーザドライバ62を備えている。画像処理装置
14から入力された記録用画像データは画像メモリ58
に一旦記憶された後に読み出され、レーザ光源60から
射出されるR,G,Bのレーザ光の変調に用いられる。
レーザ光源60から射出されたレーザ光は、ポリゴンミ
ラー64、fθレンズ66を介して印画紙68上を走査
され、印画紙68に画像が露光記録される。画像が露光
記録された印画紙68は、プロセッサ部18へ送られて
発色現像、漂白定着、水洗、乾燥の各処理が施される。
これにより、印画紙68に露光記録された画像が可視化
される。
The printer 16 has image memories 58, R,
G and B laser light sources 60 and a laser driver 62 for controlling the operation of the laser light sources 60 are provided. The recording image data input from the image processing device 14 is stored in an image memory 58.
Is read out after being stored once, and is used for modulating the R, G, B laser light emitted from the laser light source 60.
The laser light emitted from the laser light source 60 is scanned on a printing paper 68 via a polygon mirror 64 and an fθ lens 66, and an image is exposed and recorded on the printing paper 68. The photographic paper 68 on which the image has been exposed and recorded is sent to the processor section 18 and subjected to color development, bleach-fixing, washing and drying.
Thus, the image recorded on the printing paper 68 by exposure is visualized.

【0046】次に本実施形態の作用を説明する。本実施
形態では、イメージプロセッサ40において個々の画像
を単位として実行される色・濃度変換処理の処理条件で
ある色・濃度変換条件の演算に用いる画像の齣数Mを、
キーボード44又はマウスを介して設定可能とされてい
る。齣数Mは、オペレータが任意の数値を設定可能とし
てもよいし、予め用意された複数の数値の中からオペレ
ータが任意の数値を選択することで設定可能としてもよ
い。このように、キーボード44又はマウスは請求項2
に記載の設定手段に対応している。
Next, the operation of the present embodiment will be described. In the present embodiment, the number of exposures M of an image used for calculation of the color / density conversion condition, which is the processing condition of the color / density conversion process executed for each image in the image processor 40, is
The setting can be made via a keyboard 44 or a mouse. The number of exposures M may be set by the operator to set an arbitrary numerical value, or may be set by the operator selecting an arbitrary numerical value from a plurality of numerical values prepared in advance. As described above, the keyboard 44 or the mouse is used in claim 2.
Corresponds to the setting means.

【0047】なお齣数Mとしては、通常は写真フィルム
26に記録されている画像の総齣数N(例えばN=2
4)よりも小さな値が設定される。本実施形態では、説
明を簡単にするために、齣数Mとして設定可能な数値と
して総齣数Nよりも小さい奇数(例えばM=3,5,
7,…)が予め用意されており、これらの数値の中から
オペレータによって任意の数値が選択的に設定されるも
のとする。オペレータがキーボード44又はマウスを操
作することで設定した齣数Mは、制御部42の例えばR
OM50等に記憶される。
The number of exposures M is usually the total number of exposures N of the image recorded on the photographic film 26 (for example, N = 2
A value smaller than 4) is set. In the present embodiment, in order to simplify the description, an odd number smaller than the total number of exposures N (for example, M = 3, 5,
7,...) Are prepared in advance, and an arbitrary numerical value is selectively set by the operator from these numerical values. The number of exposures M set by the operator operating the keyboard 44 or the mouse is, for example, R
It is stored in the OM 50 or the like.

【0048】次に、本実施形態に係る画像読取・処理条
件演算処理について、図2のフローチャートを参照して
説明する。なお、この画像読取・処理条件演算処理は、
請求項1及び請求項2に記載の演算手段に対応している
(但し、後述するステップ126を除く)。
Next, the image reading / processing condition calculation processing according to this embodiment will be described with reference to the flowchart of FIG. This image reading / processing condition calculation processing
This corresponds to the calculation means described in claims 1 and 2 (however, except for step 126 described later).

【0049】ステップ100では、オペレータによって
設定されてROM50等に記憶されている齣数Mを取り
込むと共に、写真フィルム26に記録されている画像の
総齣数Nを取り込む。ステップ102では、読取対象の
画像を表す変数n、及び色・濃度変換条件の演算を含む
処理の実行対象の画像(以下「処理対象の画像」と称す
る)を表す変数mに各々1を代入する。なお変数mは、
読取対象の画像がフィルムスキャナ12による読取方向
に沿って写真フィルム26の先頭からm番目の画像であ
ることを表し、変数nは、処理対象の画像が前記読取方
向に沿った写真フィルム26の先頭からn番目の画像で
あることを表す。
In step 100, the number of exposures M set by the operator and stored in the ROM 50 or the like is fetched, and the total number of exposures N of the image recorded on the photographic film 26 is fetched. In step 102, 1 is assigned to each of a variable n representing an image to be read and a variable m representing an image to be processed (hereinafter referred to as an "image to be processed") to be subjected to a process including a calculation of color / density conversion conditions. . Note that the variable m is
The variable n indicates that the image to be read is the m-th image from the top of the photographic film 26 along the reading direction of the film scanner 12 and the image to be processed is the top of the photographic film 26 along the reading direction. Represents the nth image from.

【0050】またステップ104では、次式に従って変
数xの値を設定する。 x=(M−1)/2 上式により、変数xには処理対象の画像の色・濃度変換
条件の演算に用いる処理対象の画像以外の画像(該画像
の齣数はM−1)を、画像の読取方向に沿って処理対象
の画像の前側の画像の齣数と後側の画像の齣数が略同一
となるように選択した場合の、前側又は後側の画像の齣
数に相当する値が設定される(例えばM=3であればx
=1、M=5であればx=2となる)。
In step 104, the value of the variable x is set according to the following equation. x = (M-1) / 2 According to the above expression, an image other than the processing target image used for calculating the color / density conversion condition of the processing target image (the number of exposures of the image is M-1) is set as the variable x. When the number of exposures of the front image of the image to be processed and the number of exposures of the rear image are selected to be substantially the same along the image reading direction, this corresponds to the number of exposures of the front or rear image. (For example, if M = 3, x
= 1, M = 5, x = 2).

【0051】次のステップ106では変数mの値が変数
x以下か否か判定する。ステップ106の判定が肯定さ
れた場合、処理対象の画像が読取方向に沿って写真フィ
ルム26の先頭又はその近傍に位置しており、読取方向
に沿って処理対象の画像の前側に存在している画像がx
個に満たないと判断できる。この場合、色・濃度変換条
件の演算に用いる画像を、処理対象の画像の前側の画像
の齣数と後側の画像の齣数が略同一となるように選択す
ることは不可能である。
In the next step 106, it is determined whether or not the value of the variable m is equal to or less than the variable x. If the determination in step 106 is affirmative, the image to be processed is located at or near the head of the photographic film 26 along the reading direction, and exists in front of the image to be processed along the reading direction. Image is x
It can be determined that it is less than the number. In this case, it is impossible to select an image used for the calculation of the color / density conversion condition so that the number of exposures of the front image and the number of exposure of the rear image of the processing target image are substantially the same.

【0052】このため、ステップ106の判定が肯定さ
れた場合にはステップ110へ移行し、処理対象の画像
(先頭からm番目の画像)の色・濃度変換条件の演算に
用いる画像として、読取方向に沿って先頭から1番目〜
M番目のM齣の画像を設定する。この場合、色・濃度変
換条件の演算に用いるM齣の画像は、その範囲が、処理
対象の画像に対し読取方向に沿って後側に偏倚するよう
に選択されることになる。
For this reason, if the determination in step 106 is affirmative, the process proceeds to step 110, where the image to be processed (the m-th image from the head) is used as an image to be used in the calculation of the color / density conversion conditions in the reading direction. Along the first from the top
An image of the Mth M exposure is set. In this case, the image of the M exposure used for the calculation of the color / density conversion condition is selected such that its range is shifted rearward along the reading direction with respect to the image to be processed.

【0053】ステップ110の処理を行うとステップ1
16へ移行し、フィルムスキャナ12が画像の読み取り
を行うことで入力されてRAM48に記憶された画像デ
ータの中に消去可能な画像データが有るか否か判定す
る。このときはフィルムスキャナ12による画像の読み
取りが開始されていないので、RAM48には画像デー
タが記憶されていない。このため、ステップ116の判
定は無条件に否定されてステップ120へ移行する。
When the processing of step 110 is performed, step 1
Then, the flow proceeds to step S16, and it is determined whether or not there is any erasable image data in the image data input by the film scanner 12 reading the image and stored in the RAM. At this time, since the image reading by the film scanner 12 has not been started, no image data is stored in the RAM 48. Therefore, the determination in step 116 is unconditionally denied, and the process proceeds to step 120.

【0054】ステップ120では、処理対象の画像(先
頭からm番目の画像)の色・濃度変換条件の演算に用い
る画像の画像データがRAM48に全て記憶されている
か否か判定する。このときは該判定も否定されてステッ
プ122へ移行し、n番目の画像が存在しているか否か
(すなわちn≦総齣数Mか否か)判定する。判定が肯定
されるとステップ124へ移行し、フィルムスキャナ1
2に対し、n番目の画像の読み取りを指示する。
In step 120, it is determined whether or not the image data of the image to be used for the calculation of the color / density conversion condition of the image to be processed (m-th image from the top) is stored in the RAM 48. In this case, the determination is also negative, and the process proceeds to step 122, where it is determined whether the n-th image exists (that is, whether n ≦ the total number of exposures M). If the determination is affirmative, the routine proceeds to step 124, where the film scanner 1
Instruct 2 to read the n-th image.

【0055】これにより、フィルムスキャナ12では、
まずフィルムキャリア24によって写真フィルム26を
搬送し、読取位置に読取対象の画像(n番目の画像)を
位置決めし、位置決めしたn番目の画像を、固定的に定
めた読取条件により比較的低い解像度でR,G,B毎に
順に読み取るプレスキャンを行う。プレスキャンによっ
て得られたn番目の画像のプレスキャン画像データは画
像処理部14に入力されてRAM48に記憶され、制御
部42は該プレスキャン画像データに基づいてファイン
スキャン時の読取条件を演算し、フィルムスキャナ12
に通知する。そして、フィルムスキャナ12では、位置
決めしているn番目の画像を、通知された読取条件によ
り比較的高い解像度でR,G,B毎に順に読み取るファ
インスキャンを行う。
Thus, in the film scanner 12,
First, the photographic film 26 is transported by the film carrier 24, the image to be read (the n-th image) is positioned at the reading position, and the positioned n-th image is obtained at a relatively low resolution under the fixed reading conditions. A pre-scan for reading in order for each of R, G, and B is performed. The pre-scan image data of the n-th image obtained by the pre-scan is input to the image processing unit 14 and stored in the RAM 48, and the control unit 42 calculates reading conditions at the time of fine scan based on the pre-scan image data. , Film scanner 12
Notify. Then, the film scanner 12 performs a fine scan for sequentially reading the positioned n-th image at a relatively high resolution for each of R, G, and B according to the notified reading conditions.

【0056】上記によりn番目の画像(読取対象の画
像)の読み取りが完了し、ファインスキャンによって得
られたn番目の画像のファインスキャン画像データは画
像処理部14に入力され、ステップ126でRAM48
に記憶される。このように、ステップ124は、実際に
画像の読み取りを行うフィルムスキャナ12と共に本発
明の読取手段に対応している。
As described above, the reading of the n-th image (image to be read) is completed, and the fine scan image data of the n-th image obtained by the fine scan is input to the image processing unit 14, and in step 126, the RAM 48
Is stored. As described above, step 124 corresponds to the reading unit of the present invention together with the film scanner 12 for actually reading an image.

【0057】次のステップ128では、変数nの値を1
だけインクリメントすることで読取対象の画像を切替
え、ステップ120に戻る。これにより、処理対象の画
像(先頭からm番目の画像)の色・濃度変換条件の演算
に用いる画像の画像データがRAM48に全て記憶され
る迄の間は、ステップ122〜128が繰り返され、画
像の読み取りが順に行われる。
In the next step 128, the value of the variable n is set to 1
The image to be read is switched by incrementing only by one, and the process returns to step 120. Thus, steps 122 to 128 are repeated until all the image data of the image to be used for the calculation of the color / density conversion conditions of the image to be processed (m-th image from the head) is stored in the RAM 48. Are sequentially read.

【0058】読取方向に沿って先頭から1番目〜M番目
の画像の読み取りが行われて、各画像のプレスキャン画
像データ及びファインスキャン画像データがRAM48
に記憶されると、ステップ120の判定が肯定されてス
テップ130へ移行し、m番目の画像に対する色・濃度
変換条件を設定する色・濃度変換条件設定処理が行われ
る。以下、この色・濃度変換条件設定処理について、図
3のフローチャートを参照して説明する。なお、以下で
は一例として、写真フィルム26としてのネガフィルム
に記録されたネガ画像に対して色・濃度変換条件を演算
する場合を説明する。
The first to Mth images from the top are read along the reading direction, and pre-scan image data and fine scan image data of each image are stored in the RAM 48.
Is stored, the result of the determination in step 120 is affirmative, and the process proceeds to step 130, where a color / density conversion condition setting process for setting a color / density conversion condition for the m-th image is performed. Hereinafter, the color / density conversion condition setting processing will be described with reference to the flowchart of FIG. In the following, as an example, a case where color / density conversion conditions are calculated for a negative image recorded on a negative film as the photographic film 26 will be described.

【0059】ステップ150では、処理対象の画像を含
むM齣の画像の中から単一の画像のプレスキャン画像デ
ータを取り込む。なお、プレスキャン画像データは画像
の全ての画素の各成分色(R,G,B)毎の濃度値を表
すデータである。次のステップ152では、取り込んだ
プレスキャン画像データが表す画像の各画素の濃度値に
基づいて、各成分色毎に最大濃度Djmax 及び最小濃度
Djmin (jはR,G,Bの何れかを表す)を演算す
る。
In step 150, prescanned image data of a single image is fetched from among the M exposure images including the image to be processed. The pre-scan image data is data representing the density value of each component color (R, G, B) of all pixels of the image. In the next step 152, the maximum density Dj max and the minimum density Dj min (j is any of R, G, B) for each component color based on the density value of each pixel of the image represented by the captured pre-scan image data. Is calculated.

【0060】ステップ154では、プレスキャン画像デ
ータから各成分色毎に求めた最大濃度Djmax 及び最小
濃度Djmin に基づいて、各成分毎の最大濃度(D
rmax ,Dg max ,Dbmax )を仮のハイライト点の濃
度、各成分毎の最小濃度(Drmin ,Dgmin ,D
bmin )を仮のシャドー点の濃度とし、例えば図4に示
すようなR濃度Dr、G濃度Dg、B濃度Dbを座標軸
とする3次元濃度座標(RGB濃度座標)上で、仮のハ
イライト点に対応する濃度点(仮のハイライト点の各成
分色毎の濃度値によって規定される位置の点)と、仮の
シャドー点に対応する濃度点と、を結ぶ軸(仮のグレー
軸という)を設定する(図4(A)参照)。
In step 154, the pre-scan image data
Density Dj obtained for each component color from the datamaxAnd minimum
Density DjminBased on the maximum concentration (D
rmax, Dg max, Dbmax) Is the darkness of the temporary highlight point.
Degree, minimum density (Drmin, Dgmin, D
bmin) Is the tentative shadow point density, for example, as shown in FIG.
Such R density Dr, G density Dg and B density Db are coordinate axes.
On the three-dimensional density coordinates (RGB density coordinates)
The density point corresponding to the illuminated point (each component of the tentative highlighted point)
Point at the position defined by the density value for each color separation)
Axis connecting the density point corresponding to the shadow point (temporary gray
(Referred to as an axis) (see FIG. 4A).

【0061】例えば画像が高彩度の画素を多数含んだ画
像(例えばカラーフェリアの生じ易い画像)であった場
合、RGB濃度座標上で画像の各画素に対応する位置に
点をプロットしたときの点の分布(以下、単に「RGB
濃度座標上での画素の分布」という)は、例として図4
(A)及び(B)に示すように、グレーバランスを表す
と推定される画素の集合(図4(A)及び(B)におけ
る「グレー候補画素の集合」)の周囲の若干離れた位置
に、高彩度の画素の集合が現れる分布となる。
For example, if the image is an image containing a large number of high-saturation pixels (for example, an image in which color fear is likely to occur), the points are plotted at the positions corresponding to the respective pixels of the image on the RGB density coordinates. Distribution (hereinafter simply referred to as “RGB
FIG. 4 shows an example of the distribution of pixels on density coordinates.
As shown in (A) and (B), at a slightly distant position around the set of pixels estimated to represent gray balance (“the set of gray candidate pixels” in FIGS. 4A and 4B). , A distribution in which a set of high-saturation pixels appears.

【0062】上記に基づきステップ156では、画像の
各画素について、RGB濃度座標上での対応する点の位
置を各々求めると共に、求めた位置と前記仮のグレー軸
との距離(RGB濃度座標によって規定される濃度空間
内における幾何学距離)を各々演算し、RGB濃度座標
上での対応する点の位置が前記仮のグレー軸と所定距離
以上離れている画素を高彩度画素として抽出する。
Based on the above, in step 156, for each pixel of the image, the position of the corresponding point on the RGB density coordinates is determined, and the distance between the determined position and the temporary gray axis (defined by the RGB density coordinates). (The geometric distance in the density space to be obtained) is calculated, and a pixel in which the position of the corresponding point on the RGB density coordinates is separated from the temporary gray axis by a predetermined distance or more is extracted as a high-saturation pixel.

【0063】なお、高彩度画素の抽出は以下のようにし
て行ってもよい。すなわち、先のステップ152と同様
にして、各成分色毎に最大濃度Djmax 及び最小濃度Dj
minを演算した後に、画像の各画素の濃度値を各成分色
毎に規格化する。この規格化は次式を用いて行うことが
できる。 Dj'=100×(Dj −Djmin)/(Djmax −D
jmin) 但し、Djは演算対象画素の成分色jの濃度値、Dj'は
成分色jの規格化濃度値である。
The extraction of high chroma pixels may be performed as follows. In other words, the maximum density Dj max and the minimum density Dj
After calculating min , the density value of each pixel of the image is normalized for each component color. This normalization can be performed using the following equation. Dj '= 100 × (Dj -Dj min) / (Dj max -D
j min ) where Dj is the density value of the component color j of the calculation target pixel, and Dj ′ is the normalized density value of the component color j.

【0064】次に画像の各画素の各成分色毎の規格化濃
度値に基づいて各画素の彩度を演算する。例として図5
(A)に示すように、RGB濃度空間の原点(0,0,
0)及びRGB濃度空間内の点(1,1,1)を各々通
る直線Qに垂直で、かつ原点(0,0,0)を含む平面
ψ(R+G+B=0の平面)を設定し、各画素の各成分
色毎の規格化濃度値(Dr',Dg',Db')に対応するR
GB濃度座標上での各画素の濃度点を平面ψ上に写像す
る。
Next, the saturation of each pixel is calculated based on the normalized density value for each component color of each pixel of the image. FIG. 5 as an example
As shown in (A), the origin (0, 0,
0) and a plane 垂直 (a plane of R + G + B = 0) perpendicular to the straight line Q passing through the point (1,1,1) in the RGB density space and including the origin (0,0,0), respectively. R corresponding to the normalized density value (Dr ', Dg', Db ') for each component color of the pixel
The density point of each pixel on the GB density coordinates is mapped on the plane ψ.

【0065】そして平面ψ上に、図5(B)に示すxy
直交座標系を設定する。或る画素の規格化濃度値に対応
する濃度点の平面ψ上への写像位置が点Pであるとする
と、前記画素の色相はxy座標の原点及び点Pを通る直
線とx軸の成す角θに対応し、前記画素の彩度はxy座
標の原点と点Pとの距離に対応している。なお参考まで
に、明度は各画素の規格化濃度に基づき「明度=(Dr'
+Dg'+Db')/3」等の演算式によって求めることが
できる。
Then, on the plane ψ, xy shown in FIG.
Set the rectangular coordinate system. Assuming that the mapping position of the density point corresponding to the normalized density value of a certain pixel on the plane ψ is a point P, the hue of the pixel is the angle between the straight line passing through the origin of the xy coordinates and the point P and the x axis. The saturation of the pixel corresponds to the distance between the origin of the xy coordinate and the point P. For reference, the lightness is calculated based on the normalized density of each pixel as "lightness = (Dr '
+ Dg '+ Db') / 3 ".

【0066】従って、各画素毎に、規格化濃度値に対応
する濃度点の平面ψ上への写像位置(点Pの位置)を求
め、図5(C)にも示すように、xy座標の原点と点P
との距離を彩度の閾値Lthと比較することで高彩度画素
か否かを判定することができ、原点と点Pとの距離が彩
度の閾値Lthよりも大きい画素を高彩度画素として抽出
することができる。
Therefore, for each pixel, the mapping position of the density point corresponding to the normalized density value on the plane ψ (the position of the point P) is obtained, and as shown in FIG. Origin and point P
It is possible to determine whether or not the pixel is a high-saturation pixel by comparing the distance with the saturation threshold Lth, and extract a pixel whose distance between the origin and the point P is larger than the saturation threshold Lth as a high-saturation pixel. Can be.

【0067】次のステップ158では、ステップ156
で抽出した特定の高彩度画素の色相を、画像上で前記特
定の高彩度画素の近傍に存在する8個の画素(所謂8近
傍の画素)の色相と各々比較し、特定の高彩度画素の近
傍に存在している8画素の中に特定の高彩度画素と色相
が近似している画素が有れば、該画素を高彩度画素と判
定することを、ステップ156で抽出した全ての高彩度
画素について各々行う。
In the next step 158, step 156
The hue of the specific high-saturation pixel extracted in step (b) is compared with the hues of eight pixels (so-called eight-neighbor pixels) existing in the vicinity of the specific high-saturation pixel on the image. If there is a pixel whose hue is similar to a specific high-saturation pixel among the eight pixels, the pixel is determined to be a high-saturation pixel for all the high-saturation pixels extracted in step 156.

【0068】ステップ160では、ステップ158の処
理によって高彩度画素と判定した画素の数が増加したか
否か判定する。ステップ160の判定が肯定された場合
にはステップ158へ戻り、新たに高彩度画素と判定し
た画素を対象として、近傍に存在している画素(既に高
彩度画素と判定されている画素を除く)との色相を比較
し、近傍に存在している各画素のうち色相が近似してい
る画素を高彩度画素と判定する。このステップ158は
ステップ160の判定が否定される迄繰り返される。ス
テップ160の判定が否定されるとステップ162へ移
行し、高彩度画素と判定された画素を除外し、高彩度画
素と判定されなかった画素のみをグレー候補画素と認定
する。そして、グレー候補画素と認定した画素のデータ
を記憶する。
In step 160, it is determined whether or not the number of pixels determined as high-saturation pixels has increased by the processing in step 158. If the determination in step 160 is affirmative, the process returns to step 158, where the pixels that have been newly determined to be high-saturation pixels are compared with neighboring pixels (excluding pixels that have already been determined to be high-saturation pixels). The hues are compared, and a pixel having a similar hue among the neighboring pixels is determined to be a high-saturation pixel. This step 158 is repeated until the determination in step 160 is denied. If the determination in step 160 is negative, the process proceeds to step 162, in which the pixels determined to be high-saturation pixels are excluded, and only pixels that are not determined to be high-saturation pixels are recognized as gray candidate pixels. Then, the data of the pixel identified as the gray candidate pixel is stored.

【0069】上記処理を行うことで、画像中にカラーフ
ェリアの原因となる可能性の高い領域、すなわち高彩度
の画素を含む特定の色相の領域が含まれていた場合に
も、該領域の殆どの画素を高彩度画素として除外するこ
とができ、グレー候補画素と認定した画素の中に、被写
体のグレーの部分に対応する画素(グレーバランスを表
す画素)が高い割合で含まれることになる。
By performing the above-described processing, even when an image includes an area that is highly likely to cause color feria, that is, an area of a specific hue including a high-saturation pixel, most of the area is not affected. Pixels can be excluded as high-saturation pixels, and among the pixels that have been identified as gray candidate pixels, a high proportion of pixels (pixels representing gray balance) corresponding to the gray portion of the subject are included.

【0070】次のステップ164では、各成分色毎に、
グレー候補画素中のハイライト点濃度Dhj(最大濃度)
及びシャドー点濃度Dsj(最小濃度)を各々抽出する。
なお、各成分色毎にダイナミックレンジIR=(Dhr
−Dsr)、IG=(Dhg−Dsg)、IB=(Dhb−
Dsb)を求め、各成分色毎のダイナミックレンジの差
(IR−IG)、(IG−IB)、(IB−IR)を演
算し、ダイナミックレンジの差が所定の許容値を越えた
場合にはダイナミックレンジIR,IG,IBが互いに
等しくなるようにハイライト点濃度(Dhr,Dhg,D
hb)の何れかを修正するようにしてもよい。
In the next step 164, for each component color,
Highlight point density Dhj (maximum density) in gray candidate pixels
And the shadow point density Dsj (minimum density).
Note that the dynamic range IR = (Dhr
−Dsr), IG = (Dhg−Dsg), IB = (Dhb−
Dsb) is calculated, and the dynamic range differences (IR-IG), (IG-IB), and (IB-IR) for each component color are calculated. If the dynamic range difference exceeds a predetermined allowable value, The highlight point densities (Dhr, Dhg, D) are set so that the dynamic ranges IR, IG, IB are equal to each other.
hb) may be modified.

【0071】ステップ166では、グレー候補画素から
各成分色毎に求めたハイライト点濃度Dhj及びシャド
ー点濃度Dsj に基づいて、各成分毎のハイライト点濃
度(Dhr,Dhg,Dhb)をハイライト点の濃度、各
成分毎のシャドー点濃度(Dsr,Dsg,Dsb)をシ
ャドー点の濃度とし、RGB濃度座標上でハイライト点
に対応する濃度点とシャドー点に対応する濃度点とを結
ぶ軸(ハイライト−シャドー軸という)を設定する(図
4(C)参照)。
In step 166, the highlight point density (Dhr, Dhg, Dhb) of each component is highlighted based on the highlight point density Dhj and the shadow point density Dsj obtained from the gray candidate pixel for each component color. The density of a point, the shadow point density (Dsr, Dsg, Dsb) of each component is defined as the shadow point density, and an axis connecting the density point corresponding to the highlight point and the density point corresponding to the shadow point on RGB density coordinates. (Referred to as highlight-shadow axis) (see FIG. 4C).

【0072】写真フィルムは、鮮やかな発色を実現する
ために、露光量が同一であってもグレー露光より多色露
光の方が硬調に仕上がるように感光層が設計されている
ことが一般的であり(所謂重層効果)、画像中の被写体
のグレーの部分に対応する画像領域よりも、被写体の非
グレー色の部分(例えば赤等)に対応する画像領域の方
が最大濃度が高くなる可能性がある。
In a photographic film, in order to realize vivid color development, a photosensitive layer is generally designed so that multi-color exposure is more intense than gray exposure even when the exposure amount is the same. Yes (so-called multilayer effect), the maximum density may be higher in an image area corresponding to a non-gray part (for example, red) of the subject than in an image area corresponding to a gray part of the subject in the image. There is.

【0073】上記に基づき本実施形態では、ステップ1
52で求めた最大濃度Djmax 及び最小濃度Djmin に基
づいて仮のグレー軸を設定し(ステップ154)、高彩
度画素を除去(ステップ156〜ステップ162)した
後に、ステップ166でハイライト点濃度及びシャドー
点濃度に基づいてハイライト−シャドー軸(これも仮の
グレー軸の一種)を再度設定している。前述したハイラ
イト点濃度の修正や仮のグレー軸の再設定を行うこと
で、ハイライトフェリアの発生を抑制することができ
る。
Based on the above, in the present embodiment, step 1
Set the gray axis of the tentative based on the maximum density Dj max and the minimum density Dj min obtained in 52 (step 154), after removal of the high saturation pixel (step 156~ step 162), the highlight point density and in step 166 The highlight-shadow axis (also a kind of temporary gray axis) is set again based on the shadow point density. By performing the above-described correction of the highlight point density and resetting of the temporary gray axis, it is possible to suppress the occurrence of highlight feria.

【0074】次のステップ168では、グレー候補画素
の各々について、RGB濃度座標上での対応する点の位
置を各々求めると共に、求めた位置と前記ハイライト−
シャドー軸との距離(濃度空間内における幾何学距離:
ハイライト−シャドー軸との濃度差に相当)を各々演算
し、RGB濃度座標上での対応する点の位置とハイライ
ト−シャドー軸との距離(濃度差)が大きくなるに従っ
て重みが小さくなるように(前記距離(濃度差)が小さ
くなるに従って重みが大きくなるように)、各グレー候
補画素に対して重みを各々設定する。そして設定した重
みを記憶する。
In the next step 168, for each of the gray candidate pixels, the position of the corresponding point on the RGB density coordinates is determined, and the determined position and the highlight-
Distance to shadow axis (geometric distance in concentration space:
(Corresponding to the density difference between the highlight-shadow axis) and the distance between the corresponding point on the RGB density coordinates and the distance (density difference) between the highlight-shadow axis and the weight become smaller. (So that the weight increases as the distance (density difference) decreases), a weight is set for each gray candidate pixel. Then, the set weight is stored.

【0075】ステップ170では、M齣の画像に対して
上記処理を行ったか否か判定する。判定が否定された場
合にはステップ150に戻り、ステップ150〜ステッ
プ168の処理を繰り返す。これにより、処理対象の画
像を含むM齣の画像からグレー候補画素が各々抽出さ
れ、抽出された全てのグレー候補画素に対して各々重み
が設定されることになる。
In step 170, it is determined whether or not the above processing has been performed on the M exposure image. If the determination is negative, the process returns to step 150, and the processing of steps 150 to 168 is repeated. As a result, gray candidate pixels are extracted from the M exposure image including the image to be processed, and weights are set for all the extracted gray candidate pixels.

【0076】ステップ170の判定が肯定されるとステ
ップ172へ移行し、ステップ172以降で、M齣の画
像から各々抽出したグレー候補画素から成るグレー候補
画素群(図6(A)参照)に基づいて、処理対象の画像
のグレーバランスを表すグレー軸を線形近似によって求
める。
When the determination in step 170 is affirmative, the process proceeds to step 172, and in step 172 and thereafter, based on a gray candidate pixel group (see FIG. 6A) composed of gray candidate pixels extracted from the M exposure image. Then, a gray axis representing the gray balance of the image to be processed is obtained by linear approximation.

【0077】すなわち、ステップ172では処理対象の
画像の濃度域(ステップ152で処理対象の画像につい
て演算した最大濃度Djmax 及び最小濃度Djmin )を取
り込む。次のステップ174では、グレー候補画素群を
構成する各グレー候補画素のうち、先のステップ172
で取り込んだ処理対象の画像の濃度域(最大濃度Djm
ax から最小濃度Djmin に至る濃度範囲)に対応するグ
レー候補画素のデータを抽出する。
That is, in step 172, the density range of the image to be processed (the maximum density Dj max and the minimum density Dj min calculated for the image to be processed in step 152) is fetched. In the next step 174, among the gray candidate pixels constituting the gray candidate pixel group, the previous step 172
Density range (maximum density Dj m
Data of gray candidate pixels corresponding to a density range from ax to the minimum density Dj min ) is extracted.

【0078】写真フィルムに記録される複数の画像の各
々の濃度域は不定であるので、複数の画像から各々抽出
したグレー候補画素から成るグレー候補画素群のRGB
濃度座標上での分布は、写真フィルム26の発色濃度域
(一般に濃度値で3.0に近い広さ)に対応する広がり
をもっている。一方、写真フィルムに記録される個々の
画像の濃度域は濃度値で1.0程度である。従ってステ
ップ174により、図4(B)に「グレー軸推定対象の
画像の濃度域」として一例を示すように、グレー候補画
素群の全濃度域のうちの一部の濃度域内のグレー候補画
素のデータのみが抽出される。
Since the density range of each of the plurality of images recorded on the photographic film is indefinite, RGB of a gray candidate pixel group composed of gray candidate pixels extracted from each of the plurality of images is used.
The distribution on the density coordinates has a spread corresponding to the color density range of the photographic film 26 (generally, the density value is close to 3.0). On the other hand, the density range of each image recorded on the photographic film is about 1.0 in density value. Accordingly, in step 174, as shown in FIG. 4B, as an example of the “density area of the image to be estimated with the gray axis”, the gray candidate pixels in some of the density areas of the gray candidate pixel group are displayed. Only data is extracted.

【0079】次のステップ176では、ステップ174
でデータを抽出したグレー候補画素の重みを表すデータ
を取り込み、ステップ178では、処理条件の演算に用
いる画像の齣数Mの値として予め用意された複数の数値
と各々対応されて予め複数設定されたグレー軸の傾きの
許容範囲のうち、現在の齣数Mの値に対応するグレー軸
の傾きの許容範囲を取り込む。なお、このグレー軸の傾
きの許容範囲は、齣数Mの値が小さくなるに伴って許容
範囲が小さくなるように設定されている。
In the next step 176, step 174
The data representing the weight of the gray candidate pixel from which the data has been extracted is taken in, and in step 178, a plurality of values are set in advance corresponding to a plurality of numerical values prepared in advance as the value of the number of exposures M of the image used for calculating the processing conditions. The allowable range of the gray axis tilt corresponding to the current value of the number of exposures M is taken in from the allowable range of the gray axis tilt. The allowable range of the inclination of the gray axis is set so that the allowable range becomes smaller as the value of the number of exposures M becomes smaller.

【0080】そしてステップ180では、ステップ17
4で抽出したグレー候補画素のデータ及びステップ17
6で抽出した各グレー候補画素の重みに基づいて、抽出
したグレー候補画素のRGB濃度座標上における分布
を、各グレー候補画素に付された重みも考慮して線形近
似し、傾きが、ステップ178で取り込んだ許容範囲内
となるように処理対象の画像のグレー軸を推定演算す
る。
Then, in step 180, step 17
Gray candidate pixel data extracted in step 4 and step 17
Based on the weight of each gray candidate pixel extracted in step 6, the distribution of the extracted gray candidate pixels on the RGB density coordinates is linearly approximated in consideration of the weight given to each gray candidate pixel. The gray axis of the image to be processed is estimated and calculated so as to fall within the allowable range fetched in (1).

【0081】なお、線形近似は、例えば線形重回帰分析
等に利用される最小2乗法等の手法を適用し、予測誤差
の平方和が最小となるように行うことができる。この場
合、グレー軸の傾きを許容範囲内とすることは、例えば
最小2乗法等による演算に際し、グレー軸を規定する変
数のうちのグレー軸の傾きを規定する変数の値を、前記
許容範囲に対応する数値範囲内の値に制限する条件式を
連立方程式に加える等によって実現できる。
The linear approximation can be performed by applying a method such as the least squares method used in linear multiple regression analysis or the like so that the sum of squares of the prediction error is minimized. In this case, setting the gradient of the gray axis within the allowable range means that, for example, in the calculation by the least square method or the like, the value of the variable defining the gradient of the gray axis among the variables defining the gray axis is set in the allowable range. This can be realized by adding a conditional expression restricting to a value within a corresponding numerical range to the simultaneous equations.

【0082】また、各グレー候補画素の重みを反映した
線形近似は、例えば重みの大きい画素についてはRGB
濃度空間内の略同一の位置に存在するグレー候補画素の
数がデータ上で増加するようにグレー候補画素のデータ
を変換し(例えば1画素のデータを100画素のデータ
に変換する等)、重みが小さい画素についてはRGB濃
度空間内の略同一の位置に存在するグレー候補画素の数
がデータ上で減少するようにグレー候補画素のデータを
変換し(たとえば100画素のデータを1画素のデータ
に変換する等)、変換後のグレー候補画素のデータを用
いて線形近似を行うことで実現できる。
The linear approximation reflecting the weight of each gray candidate pixel is, for example, RGB for a pixel having a large weight.
The gray candidate pixel data is converted so that the number of gray candidate pixels existing at substantially the same position in the density space increases on the data (for example, one pixel data is converted into 100 pixel data, etc.), and the weight is changed. For the pixels having a small value, the data of the gray candidate pixels is converted so that the number of gray candidate pixels existing at substantially the same position in the RGB density space is reduced on the data (for example, 100 pixel data is converted into 1 pixel data). Conversion, etc.) can be realized by performing linear approximation using the data of the converted gray candidate pixels.

【0083】また、線形近似は3次元空間(RGB濃度
空間)上で行ってもよいし、複数の2次元空間(例えば
R−G,G−B,B−Rの各濃度空間)上で行ってもよ
い。例えばRGB濃度空間上での線形近似によるグレー
軸の推定は、処理対象の画像の濃度域として特定の成分
色についての画像の濃度域、或いはRGB平均濃度につ
いての画像の濃度域を用い、該濃度域内に存在するグレ
ー候補画素のRGB濃度空間上での分布を線形近似する
ことで行うことができる。
The linear approximation may be performed on a three-dimensional space (RGB density space), or on a plurality of two-dimensional spaces (for example, each of the RGB, GB and BR density spaces). You may. For example, the estimation of the gray axis by linear approximation in the RGB density space is performed by using the density range of the image for the specific component color or the density range of the image for the RGB average density as the density range of the image to be processed. This can be performed by linearly approximating the distribution of the gray candidate pixels existing in the area on the RGB density space.

【0084】また、R−G,G−B,B−Rの各濃度空
間上での線形近似によるグレー軸の推定は、例えばR−
G濃度空間については画像のRの濃度域内に存在するグ
レー候補画素の分布を線形近似し、G−B濃度空間につ
いては画像のGの濃度域内に存在するグレー候補画素の
分布を線形近似し、B−R濃度空間については画像のB
の濃度域内に存在するグレー候補画素の分布を線形近似
し、各空間上での線形近似によって得られた3本の軸の
重心に相当する軸をグレー軸として演算することができ
る。
The estimation of the gray axis by linear approximation in each of the density spaces RG, GB, and BR is performed by, for example, R-
For the G density space, linearly approximate the distribution of gray candidate pixels existing in the R density area of the image, and for the GB density space, linearly approximate the distribution of gray candidate pixels existing in the G density area of the image, Regarding the BR density space,
, The distribution of the gray candidate pixels existing in the density range is linearly approximated, and the axis corresponding to the center of gravity of the three axes obtained by the linear approximation in each space can be calculated as the gray axis.

【0085】次のステップ182では、処理対象の画像
のグレー軸を推定演算した結果に基づいて、撮影時の被
写体のグレーの部分が出力画像上でグレーとして再現さ
れるように、ファインスキャン画像データに対する色・
濃度変換処理の処理条件(色・濃度変換条件:具体的に
は例えば色・濃度変換処理を行うためのLUT(ルック
アップテーブル)に設定する変換データ)を各々設定
し、色・濃度変換条件設定処理を終了する。
In the next step 182, based on the result of estimating and calculating the gray axis of the image to be processed, the fine scan image data is reproduced so that the gray portion of the subject at the time of photographing is reproduced as gray on the output image. Color against
The processing conditions of the density conversion processing (color / density conversion conditions: specifically, for example, conversion data set in an LUT (lookup table) for performing the color / density conversion processing) are set, and the color / density conversion conditions are set. The process ends.

【0086】上記の色・濃度変換条件は、例えば推定演
算したグレー軸が表すグレーバランスのうちのG濃度D
gとR濃度Drとの関係(グレー軸をG濃度及びR濃度
を座標軸とする2次元濃度座標に投影した結果に相当)
がDg=αrg・Dr+βrgで表され、G濃度DgとB濃
度Dbとの関係(グレー軸をG濃度及びB濃度を座標軸
とする2次元濃度座標に投影した結果に相当)がDg=
αbg・Db+βbgで表されるとすると、例えばG濃度D
gは無変換とし、R濃度DrについてはDr=αrg・D
r+βrgなる変換式に従って変換され、B濃度Dbにつ
いてはDb=αbg・Db+βbgなる変換式に従って変換
されるように設定することができる。
The above-mentioned color / density conversion conditions include, for example, the G density D of the gray balance represented by the estimated and calculated gray axis.
Relationship between g and R density Dr (corresponding to the result of projecting two-dimensional density coordinates using the gray axis as G density and R density as coordinate axes)
Is represented by Dg = αrg · Dr + βrg, and the relationship between the G density Dg and the B density Db (corresponding to the result of projecting the gray axis onto the two-dimensional density coordinates using the G density and the B density as coordinate axes) is Dg =
If it is expressed by αbg · Db + βbg, for example, G concentration D
g is not converted, and for the R concentration Dr, Dr = αrg · D
It can be set so as to be converted according to a conversion formula of r + βrg, and the B concentration Db is converted according to a conversion formula of Db = αbg · Db + βbg.

【0087】先に説明したステップ150〜ステップ1
62におけるグレー候補画素の抽出精度には限度があ
り、例えば処理対象の画像がカラーフェリアやハイライ
トフェリアの生じ易い画像であった場合には、グレー候
補画素として適正な画素(グレーバランスを表す画素)
が抽出されない場合もある。
Steps 150 to 1 described above
There is a limit to the extraction accuracy of the gray candidate pixels in 62. For example, when the image to be processed is an image in which color feria or highlight fear is likely to occur, a pixel (pixel representing gray balance) suitable as a gray candidate pixel )
May not be extracted.

【0088】これに対して本実施形態では、M齣の画像
からグレー候補画素を各々抽出し、グレーバランスの推
定に際し、M齣の画像から各々抽出したグレー候補画素
から成るグレー候補画素群を用いている。グレー候補画
素群はM齣の画像から各々抽出したグレー候補画素から
構成されているので、グレー候補画素群全体ではM齣の
画像の画像内容のばらつきが平均化され、特定の画像か
らグレー候補画素として適正な画素が抽出されなかった
場合にも、前記適正な画素が抽出されなかったことによ
る影響が軽減される。
On the other hand, in the present embodiment, gray candidate pixels are extracted from the M exposure image, and a gray candidate pixel group composed of the gray candidate pixels extracted from the M exposure image is used for estimating the gray balance. ing. Since the gray candidate pixel group is composed of gray candidate pixels extracted from the M exposure image, variations in the image content of the M exposure image are averaged in the entire gray candidate pixel group, and the gray candidate pixel Even when a proper pixel is not extracted, the influence of the fact that the proper pixel is not extracted is reduced.

【0089】従って、グレー候補画素群のRGB濃度座
標上での分布は、全体として、写真フィルム26の発色
濃度域の全域におけるグレーバランス(写真フィルム2
6に記録された各画像上でのグレーバランス)を精度良
く表しており、このグレー候補画素群を用いてグレーバ
ランスを推定することで、同一の写真フィルムに記録さ
れた各画像上でのグレーバランスを各々高い精度で推定
することができ、撮影時の被写体のグレーの部分がグレ
ーとして再現されるように処理対象の画像の画像データ
を変換できる適正な色・濃度変換条件を得ることができ
る。
Therefore, the distribution of the gray candidate pixel group on the RGB density coordinates is, as a whole, the gray balance (photographic film 2) in the entire color density range of the photographic film 26.
6 accurately represents the gray balance on each image recorded on the same photographic film by estimating the gray balance using the gray candidate pixel group. The balance can be estimated with high accuracy, and appropriate color / density conversion conditions capable of converting image data of an image to be processed can be obtained so that a gray portion of a subject at the time of shooting is reproduced as gray. .

【0090】また、グレー候補画素群のRGB濃度座標
上での分布が表している、写真フィルム26の発色濃度
域の全域におけるグレーバランスは、フィルム特性等が
反映され、図4(A)に破線で示すようにRGB濃度座
標上で曲線として表される:図4(A)に破線で示す
「実際のグレーバランスを表す特性曲線」を参照)。
The gray balance in the entire color density range of the photographic film 26, which is represented by the distribution of the gray candidate pixel group on the RGB density coordinates, reflects film characteristics and the like, and is indicated by a broken line in FIG. Is represented as a curve on the RGB density coordinates as shown by: “Characteristic curve representing actual gray balance” shown by a broken line in FIG. 4A).

【0091】これに対して本実施形態では、個々の画像
を単位として、グレー候補画素群のRGB濃度座標上で
の分布を、個々の画像の濃度域内(写真フィルム26の
発色濃度域よりも大幅に狭い濃度域内)で各々線形近似
することでグレーバランスを表すグレー軸を推定演算し
ているので、高次の非線形近似によってグレーバランス
を表す特性曲線を求める場合と比較して、処理が非常に
簡単になると共に、各画像毎に充分に高くかつ安定した
推定精度でグレーバランスを推定することができる。
On the other hand, in the present embodiment, the distribution of the gray candidate pixel group on the RGB density coordinates in each image is set within the density range of the individual image (larger than the color density range of the photographic film 26). Since the gray axis representing the gray balance is estimated and calculated by linear approximation within a narrow density range), the processing is much more complicated than when a characteristic curve representing the gray balance is obtained by higher-order nonlinear approximation. In addition to being simple, the gray balance can be estimated with sufficiently high and stable estimation accuracy for each image.

【0092】上記のようにして色・濃度変換条件設定処
理が完了すると、図2のフローチャートのステップ13
2へ移行し、RAM48に記憶されているm番目の画像
のファインスキャン画像データ及びm番目の画像に対す
る色・濃度変換条件をイメージプロセッサ40に転送す
ることにより、m番目の画像のファインスキャン画像デ
ータに対する色・濃度変換処理をイメージプロセッサ4
0で行なわせる。
When the color / density conversion condition setting processing is completed as described above, step 13 in the flowchart of FIG.
Then, the fine scan image data of the mth image is transferred to the image processor 40 by transferring the fine scan image data of the mth image and the color / density conversion condition for the mth image stored in the RAM 48 to the image processor 40. Processor 4 performs color / density conversion processing for
Perform at 0.

【0093】イメージプロセッサ40では、転送された
色・濃度変換条件をLUTにセットし、転送されたファ
インスキャン画像データをLUTによって変換すること
によって色・濃度変換処理を行う。これにより、処理対
象の画像がカラーフェリアの生じ易い画像やハイライト
フェリアの生じ易い画像であったとしても、処理対象の
画像のファインスキャン画像データから、撮影時の被写
体のグレーの部分がグレーとして再現される出力画像デ
ータが得られることになる。
The image processor 40 sets the transferred color / density conversion conditions in the LUT, and performs color / density conversion processing by converting the transferred fine scan image data by the LUT. Thus, even if the image to be processed is an image in which color fear is likely to occur or an image in which highlight fear is likely to occur, the gray portion of the subject at the time of shooting is grayed out from the fine scan image data of the image to be processed. Output image data to be reproduced is obtained.

【0094】次のステップ134では、変数mの値が総
齣数Mに等しいか否か判定する。判定が否定された場合
にはステップ136へ移行し、変数mの値を1だけイン
クリメントすることで処理対象の画像を切替え、ステッ
プ106に戻る。
In the next step 134, it is determined whether or not the value of the variable m is equal to the total number of exposures M. If the determination is negative, the process proceeds to step 136, in which the image to be processed is switched by incrementing the value of the variable m by 1, and the process returns to step 106.

【0095】ステップ106の判定は、色・濃度変換条
件の演算を行った画像数が増加し、変数mの値が変数x
の値よりも大きくなると否定される。ステップ106の
判定が否定された場合にはステップ108へ移行し、総
齣数Nから変数mを減算した値が変数xの値よりも小さ
いか否か判定する。ステップ108の判定も否定された
場合、処理対象の画像は読取方向に沿って写真フィルム
26の先頭にも末尾にもその近傍にも位置しておらず、
読取方向に沿って処理対象の画像の前側及び後側には各
々x個以上の画像が存在していると判断できる。
The determination in step 106 is that the number of images on which the color / density conversion conditions have been calculated increases and the value of the variable m is the variable x
Is denied if it becomes larger than the value of. If the determination in step 106 is negative, the process proceeds to step 108, where it is determined whether the value obtained by subtracting the variable m from the total number of exposures N is smaller than the value of the variable x. If the determination in step 108 is also negative, the image to be processed is not located at the beginning, end, or vicinity of the photographic film 26 along the reading direction,
It can be determined that x or more images exist on the front side and the rear side of the image to be processed along the reading direction, respectively.

【0096】このため、ステップ108の判定が否定さ
れた場合にはステップ114へ移行し、処理対象の画像
(先頭からm番目の画像)の色・濃度変換条件の演算に
用いる画像として、読取方向に沿って先頭から(m−
x)番目〜(m+x)番目のM齣の画像を設定する。こ
の場合、色・濃度変換条件の演算に用いるM齣の画像
は、処理対象の画像の前側の画像の齣数と後側の画像の
齣数が略同一となるように選択されることになる。な
お、このステップ114は請求項3に記載の演算手段に
対応している。ステップ108の処理を行うとステップ
116へ移行し、不要データの有無が再度判定される。
For this reason, if the determination in step 108 is denied, the process proceeds to step 114, in which the image to be processed (the m-th image from the top) is used as an image to be used in the calculation of the color / density conversion conditions. From the beginning along (m-
The (x) -th to (m + x) -th M exposure images are set. In this case, the M exposure image used for calculating the color / density conversion condition is selected such that the number of exposures of the front image and the number of exposure of the rear image of the image to be processed are substantially the same. . This step 114 corresponds to the calculating means according to the third aspect. After the process of step 108, the process proceeds to step 116, and the presence or absence of unnecessary data is determined again.

【0097】ここで、色・濃度変換条件の演算に用いる
M齣の画像の範囲は、変数mの値の増大に伴ってフィル
ムの末尾側に移動していくので、読取方向に沿って先頭
から(m−x)番目の画像よりも先頭側に位置している
画像(n番目の画像:但しn<m−x)の画像データ
は、この先、色・濃度変換条件の演算に用いられること
はないと判断できる。このため、上記の条件に合致する
画像の画像データがRAM48に記憶されていた場合に
は、ステップ116の判定が肯定されてステップ118
へ移行し、該当する画像の画像データ(プレスキャン画
像データ及びファインスキャン画像データ)を消去した
後にステップ120へ移行し、ステップ120以降の処
理・判定を繰り返す。
Here, the range of the M exposure image used for the calculation of the color / density conversion condition moves toward the tail of the film as the value of the variable m increases. The image data of the image (n-th image: n <mx) located on the leading side of the (mx) -th image may not be used for calculating the color / density conversion condition. It can be determined that there is no For this reason, when the image data of the image meeting the above condition is stored in the RAM 48, the determination in the step 116 is affirmed and the step 118
Then, after erasing the image data (pre-scan image data and fine scan image data) of the corresponding image, the process proceeds to step 120, and the processing and determination after step 120 are repeated.

【0098】また、画像読取・処理条件演算処理の進行
に伴い、フィルムの末尾側に位置している画像が処理対
象になると、総齣数Nから変数mを減算した値が変数x
の値よりも小さくなり、ステップ108の判定が肯定さ
れる。この場合、読取方向に沿って処理対象の画像の後
側に存在している画像がx個に満たないと判断できるの
で、色・濃度変換条件の演算に用いる画像を、処理対象
の画像の前側の画像の齣数と後側の画像の齣数が略同一
となるように選択することは不可能である。
When the image located at the end of the film is to be processed along with the progress of the image reading / processing condition calculation processing, the value obtained by subtracting the variable m from the total number of exposures N is the variable x
, And the determination in step 108 is affirmed. In this case, since it can be determined that the number of images existing behind the image to be processed along the reading direction is less than x, the image used for calculating the color / density conversion condition is set to the front side of the image to be processed. Cannot be selected such that the number of exposures of the image No. and the number of exposures of the rear image are substantially the same.

【0099】このため、ステップ108の判定が肯定さ
れた場合にはステップ112へ移行し、処理対象の画像
(先頭からm番目の画像)の色・濃度変換条件の演算に
用いる画像として、読取方向に沿って先頭から(N−M
+1)番目〜N番目のM齣の画像を設定する。この場
合、色・濃度変換条件の演算に用いるM齣の画像は、そ
の範囲が、処理対象の画像に対し読取方向に沿って前側
に偏倚するように選択されることになる。ステップ11
2の処理を行うとステップ116へ移行し、不要データ
の有無を再度判定した後にステップ120へ移行し、ス
テップ120以降の処理・判定を繰り返す。
For this reason, if the determination in step 108 is affirmative, the process proceeds to step 112, in which the image to be processed (m-th image from the top) is used as an image to be used in the calculation of the color / density conversion conditions in the reading direction. From the beginning (N-M
(+1) -th to N-th M exposure images are set. In this case, the image of the M exposure used for the calculation of the color / density conversion condition is selected such that its range is shifted forward with respect to the image to be processed along the reading direction. Step 11
When the process of step 2 is performed, the process proceeds to step 116, where it is determined again whether or not there is unnecessary data.

【0100】そして、読取方向に沿って先頭からN齣目
の画像に対して色・濃度変換条件の演算及び色・濃度変
換処理を完了すると、ステップ134の判定が肯定さ
れ、画像読取・処理条件演算処理を終了する。なお、上
述したようにステップ110、112、114、120
は、齣数M及び変数mによって表される写真フィルム2
6上での処理対象の画像の位置に応じて、色・濃度変換
条件の演算に用いる画像を選択し、色・濃度変換条件の
演算を行うタイミングを変更しており、請求項4及び請
求項5に記載の演算手段に対応している。
When the calculation of the color / density conversion conditions and the color / density conversion processing are completed for the image of the Nth frame from the top along the reading direction, the determination in step 134 is affirmed, and the image reading / processing conditions The arithmetic processing ends. As described above, steps 110, 112, 114, 120
Is the photographic film 2 represented by the number of exposures M and the variable m
6. An image used for calculating the color / density conversion condition is selected in accordance with the position of the image to be processed on the image processing device 6, and the timing for calculating the color / density conversion condition is changed. 5 corresponds to the calculating means.

【0101】続いて、上記の画像読取・処理条件演算処
理によって実現される処理シーケンスの一例を、図7を
参照して更に説明する。図7には、齣数M=3(変数x
=1)の場合の処理シーケンスが示されている。
Next, an example of a processing sequence realized by the above-described image reading / processing condition calculation processing will be further described with reference to FIG. FIG. 7 shows the number of exposures M = 3 (variable x
= 1) shows a processing sequence.

【0102】読取方向に沿ってフィルムの先頭に位置し
ている「齣1」の画像に対する色・濃度変換条件の演算
には「齣1」〜「齣3」の画像の画像データが用いられ
る。従って、「齣1」〜「齣3」の画像の画像データが
RAM48に記憶される迄の間はステップ120の判定
が否定され、「齣1」〜「齣3」の画像の読み取りが順
に行われる。「齣1」〜「齣3」の画像データがRAM
48に記憶されるとステップ120の判定が肯定され、
「齣1」の画像に対する色・濃度変換条件の演算及び色
・濃度変換処理が行われる。
The image data of the images of "exposure 1" to "exposure 3" are used to calculate the color / density conversion conditions for the image of "exposure 1" located at the head of the film along the reading direction. Therefore, until the image data of the images of "exposure 1" to "exposure 3" are stored in the RAM 48, the determination of step 120 is denied, and the reading of the images of "exposure 1" to "exposure 3" is sequentially performed. Will be Image data of "exposure 1" to "exposure 3" are stored in RAM
48, the determination in step 120 is affirmed,
The calculation of the color / density conversion condition and the color / density conversion processing for the image of “exposure 1” are performed.

【0103】次の「齣2」の画像については、ステップ
106及びステップ108の判定が否定されるものの、
ステップ114において、「齣2」の画像に対する色・
濃度変換条件の演算に用いる画像として、「齣1」の画
像と同一の「齣1」〜「齣3」が設定される。従って、
ステップ120の判定が肯定されることで「齣1」の画
像に続いて「齣2」の画像に対する色・濃度変換条件の
演算及び色・濃度変換処理が行われる。
For the image of the next “exposure 2”, although the determinations in steps 106 and 108 are denied,
In step 114, the color / image for the “exposure 2” image
“Exposure 1” to “exposure 3” that are the same as the image of “exposure 1” are set as the images used for calculating the density conversion conditions. Therefore,
If the determination in step 120 is affirmative, the calculation of the color / density conversion condition and the color / density conversion processing for the image of “exposure 2” are performed after the image of “exposure 1”.

【0104】次の「齣3」の画像については、ステップ
114において、色・濃度変換条件の演算に用いる画像
として「齣2」〜「齣4」が設定される。従って、「齣
1」の画像の画像データは不要となるので、ステップ1
16の判定が肯定され、ステップ118で「齣1」の画
像の画像データが消去される。そして、「齣4」の読み
取りが行われて画像データがRAM48に記憶される
と、「齣3」の画像に対する色・濃度変換条件の演算及
び色・濃度変換処理が行われ、「齣2」の画像の画像デ
ータが消去される。
For the next image of “exposure 3”, in step 114, “exposure 2” to “exposure 4” are set as images used for calculating the color / density conversion conditions. Accordingly, the image data of the image of “exposure 1” is not required, and
The determination at 16 is affirmative, and the image data of the image of “exposure 1” is deleted at step 118. Then, when "exposure 4" is read and the image data is stored in the RAM 48, the calculation of the color / density conversion condition and the color / density conversion processing for the image of "exposure 3" are performed, and "exposure 2" is performed. Is deleted.

【0105】このように、RAM48には最大でもM齣
の画像データのみが記憶されることになり、画像データ
を記憶する記憶手段(この場合はRAM48)の記憶容
量を削減することができる。また、M齣の画像の読み取
りが行われRAM48にM齣の画像データが記憶される
と色・濃度変換条件の演算及び色・濃度変換処理を行う
ことができ、全ての画像の画像データが記憶される前に
色・濃度変換条件の演算を開始することができるので、
処理時間を短縮することができる。
As described above, only the M-frame image data is stored in the RAM 48 at the maximum, and the storage capacity of the storage means (in this case, the RAM 48) for storing the image data can be reduced. When the image of the M exposure is read and the image data of the M exposure is stored in the RAM 48, the calculation of the color / density conversion condition and the color / density conversion processing can be performed, and the image data of all the images is stored. Calculation of color / density conversion conditions can be started before
Processing time can be reduced.

【0106】更に、図2に示したアルゴリズムによれ
ば、写真フィルム26に記録されている画像を逆方向か
ら順に読み取った場合にも、各画像に対する色・濃度変
換条件の演算に同一のM齣の画像の画像データが用いら
れるので、画像の読取方向によって色・濃度変換条件の
演算結果が変動することも防止できる。
Further, according to the algorithm shown in FIG. 2, even when the images recorded on the photographic film 26 are read in order from the reverse direction, the same M exposure is used to calculate the color / density conversion conditions for each image. Since the image data of the image is used, it is possible to prevent the calculation result of the color / density conversion condition from fluctuating depending on the image reading direction.

【0107】なお、上記では個々の画像に対し、比較的
低解像度での読み取り(プレスキャン)と比較的高解像
度での読み取り(ファインスキャン)の2回の読み取り
を行い、プレスキャンによって得られた低解像度画像デ
ータを用いて色・濃度変換条件の設定を行っていたが、
これに限定されるものではなく、例えばプレスキャンに
よって得られた画像データはファインスキャン時の読取
条件の決定にのみ用いてもよいし、画像に対してファイ
ンスキャンに相当する解像度での単一回の読み取りのみ
を行うようにしてもよい。
In the above description, each image is read twice at a relatively low resolution (pre-scan) and at a relatively high resolution (fine scan), and obtained by pre-scan. The color / density conversion conditions were set using low resolution image data.
However, the present invention is not limited to this. For example, image data obtained by pre-scanning may be used only for determining reading conditions at the time of fine scanning, or a single scan at a resolution equivalent to fine scanning may be performed on an image. May be read only.

【0108】また、上記では齣数Mを奇数としていた
が、本発明はこれに限定されるものではなく、齣数Mは
偶数であってもよい。齣数Mが偶数の場合、処理条件の
演算に用いる画像の選択において、画像の読取方向に沿
って処理対象の画像の前側の画像の齣数と後側の画像の
齣数を同一とすることはできないが、齣数差がなるべく
小さく(最小値は1)なるように処理条件の演算に用い
る画像を選択すれば、画像の読取方向毎の処理条件の演
算結果のばらつきを抑制できる。
In the above description, the number of exposures M is an odd number. However, the present invention is not limited to this, and the number of exposures M may be an even number. When the number of exposures M is an even number, in selecting an image to be used for calculating processing conditions, the number of exposures of the front image and the number of exposure of the rear image of the image to be processed should be the same along the reading direction of the image. However, if an image used for calculating the processing condition is selected so that the difference in the number of exposures is as small as possible (the minimum value is 1), the variation in the calculation result of the processing condition for each image reading direction can be suppressed.

【0109】また、画像の読取方向と無関係に写真フィ
ルムの先頭/末尾を固定的に定義し(例えば写真フィル
ムの側縁に光学的に記録されている齣番号を基準にし、
齣番号として小さな数値が記録されている側の端部を先
頭とする等)、前記定義した先頭/末尾に対する画像の
読取方向を検出し(先頭側から読み取っているか末尾側
から読み取っているか)、処理条件の演算に用いる画像
を、処理対象の画像の前側の画像の齣数が多くなるよう
に選択するか、後側の画像の齣数が多くなるように選択
するかを、検出結果に応じて切替える(すなわち処理対
象の画像の先頭側の画像の齣数及び末尾側の画像の齣数
が読取方向に拘わらず変化しないようにする)ようにし
てもよい。
Further, the head / end of the photographic film is fixedly defined irrespective of the image reading direction (for example, based on the exposure number optically recorded on the side edge of the photographic film,
The end on the side where a small numerical value is recorded as the exposure number is set as the head, etc.), and the image reading direction with respect to the defined head / end is detected (whether the image is read from the head or the end), Depending on the detection result, whether the image used for calculating the processing conditions is selected so that the number of exposures of the image on the front side of the processing target image is large or the number of exposures of the image on the rear side is large is selected. (That is, the number of exposures of the image on the head side and the number of exposures of the image on the end side of the image to be processed do not change regardless of the reading direction).

【0110】更に、上記では色・濃度変換処理に用いる
色・濃度変換条件の演算・設定に本発明を適用した場合
を説明したが、本発明に係る画像処理及びその処理条件
は上記に限定されるものではなく、任意の画像処理・処
理条件の演算に本発明を適用可能であることは言うまで
もない。
Further, the case where the present invention is applied to the calculation and setting of the color / density conversion conditions used in the color / density conversion processing has been described above. However, the image processing and the processing conditions according to the present invention are not limited to the above. However, it is needless to say that the present invention can be applied to any image processing and calculation of processing conditions.

【0111】また、上記では光電変換セルがマトリクス
状に配列されたエリアセンサ(エリアCCD30)によ
って画像を読み取る構成を説明したが、これに限定され
るものではなく、光電変換セルがライン状に配列された
ラインセンサによって画像を読み取るようにしてもよ
い。また、上記では写真フィルムを透過した光を光電変
換することで画像を読み取る構成を説明したが、これに
限定されるものではなく、写真フィルムを反射した光を
光電変換することで画像を読み取る構成を採用してもよ
い。また、画像記録材料は写真フィルムに限定されるも
のではなく、写真フィルム以外の写真感光材料や普通
紙、OHPシート等を画像記録材料として用いても良い
ことは言うまでもない。
In the above description, the configuration in which an image is read by an area sensor (area CCD 30) in which photoelectric conversion cells are arranged in a matrix has been described. However, the present invention is not limited to this, and the photoelectric conversion cells are arranged in a line. The image may be read by the line sensor provided. In the above description, the configuration in which an image is read by photoelectrically converting light transmitted through a photographic film has been described. However, the configuration is not limited to this, and the configuration in which an image is read by photoelectrically converting light reflected by a photographic film is described. May be adopted. The image recording material is not limited to a photographic film, and it goes without saying that a photographic photosensitive material other than a photographic film, plain paper, an OHP sheet, or the like may be used as the image recording material.

【0112】以上、本発明の実施形態について説明した
が、上記の実施形態は特許請求の範囲に記載した事項の
実施態様以外に、以下に記載する事項の実施態様を含ん
でいる。
The embodiments of the present invention have been described above. However, the above-described embodiments include the embodiments described below in addition to the embodiments described in the claims.

【0113】(1)前記演算手段は、前記画像記録材料
としての写真フィルムに記録された単一の画像の画像情
報に基づいて前記画像の画像特性値を求め、求めた画像
特性値に基づいて前記画像情報から被写体のグレーの部
分に対応する画素である可能性の高いグレー候補画素を
抽出することを、前記所定の齣数又は前記予め設定され
た齣数の画像について各々行い、前記各画像から各々抽
出したグレー候補画素から成るグレー候補画素群の所定
の座標上での分布に基づいてグレーバランスを推定する
処理を行って、処理対象の画像の画像情報に対する画像
処理の処理条件として、色・濃度変換処理に用いる色・
濃度変換条件を演算することを特徴とする請求項1又は
請求項2記載の画像処理装置。
(1) The calculating means determines an image characteristic value of the image based on image information of a single image recorded on a photographic film as the image recording material, and determines the image characteristic value based on the determined image characteristic value. Extracting a gray candidate pixel likely to be a pixel corresponding to a gray portion of a subject from the image information is performed for each of the predetermined number of exposures or the image of the preset number of exposures, and Performing a process of estimating gray balance based on the distribution of gray candidate pixels consisting of gray candidate pixels extracted on the basis of predetermined coordinates on the predetermined coordinates, and processing conditions of image processing for image information of an image to be processed include color・ Color used for density conversion processing
3. The image processing apparatus according to claim 1, wherein a density conversion condition is calculated.

【0114】[0114]

【発明の効果】以上説明したように請求項1及び請求項
6記載の発明は、処理対象の画像の画像情報に対する画
像処理の処理条件を、処理対象の画像及び長尺状の画像
記録材料上で処理対象の画像と近接した位置に記録され
ている画像から成る、画像記録材料に記録された画像の
総齣数よりも少ない所定の齣数の画像の画像情報を用い
て演算することを、画像記録材料に記録されている各画
像を処理対象の画像として順に行うので、データの記憶
に必要な記憶容量の削減及び処理時間の短縮を実現で
き、画像の読取方向によって画像処理の処理条件の演算
結果が変化することを防止できる、という優れた効果を
有する。
As described above, according to the first and sixth aspects of the present invention, the processing conditions of the image processing for the image information of the image to be processed are set on the image to be processed and the long image recording material. Comprising using the image information of the image of a predetermined number of exposures smaller than the total number of exposures of the image recorded on the image recording material, consisting of images recorded at a position close to the image to be processed, Since each image recorded on the image recording material is sequentially processed as an image to be processed, a reduction in storage capacity necessary for storing data and a reduction in processing time can be realized. There is an excellent effect that the calculation result can be prevented from changing.

【0115】請求項2及び請求項7記載の発明は、処理
対象の画像の画像情報に対する画像処理の処理条件を、
処理対象の画像及び長尺状の画像記録材料上で処理対象
の画像と近接した位置に記録されている画像から成る予
め設定された齣数の画像の画像情報を用いて演算するこ
とを、画像記録材料に記録されている各画像を処理対象
の画像として順に行うので、データの記憶に必要な記憶
容量の削減及び処理時間の短縮を実現でき、画像の読取
方向によって画像処理の処理条件の演算結果が変化する
ことを防止できる、という優れた効果を有する。
According to the second and seventh aspects of the present invention, the processing conditions of the image processing for the image information of the image to be processed are
The image processing is performed by using image information of a predetermined number of exposures consisting of an image to be processed and an image recorded at a position close to the image to be processed on a long image recording material. Since each image recorded on the recording material is sequentially processed as an image to be processed, a reduction in storage capacity required for data storage and a reduction in processing time can be realized, and the calculation of image processing processing conditions according to the image reading direction. It has an excellent effect that the result can be prevented from changing.

【0116】請求項3記載の発明は、請求項1又は請求
項2の発明において、画像処理の処理条件の演算に画像
情報を用いる処理対象の画像以外の画像を、画像の読取
方向に沿って処理対象の画像の前側の画像の齣数と後側
の画像の齣数が略同一となるように選択するので、上記
効果に加え、類似画像群の有無を判別する等の複雑な処
理を行うことなく、類似画像群に属する各画像の画像情
報に対する画像処理の処理条件を同一又は近似させるこ
とができる、という効果を有する。
According to a third aspect of the present invention, in the first or the second aspect of the present invention, an image other than an image to be processed, which uses image information for calculating a processing condition of the image processing, is read along the image reading direction. Since the number of exposures of the front image and the number of exposures of the rear image of the image to be processed are selected to be substantially the same, in addition to the above effects, complicated processing such as determining the presence or absence of a similar image group is performed. This has the effect that the processing conditions of the image processing for the image information of each image belonging to the similar image group can be the same or approximate.

【0117】請求項4記載の発明は、請求項1又は請求
項2の発明において、画像記録材料に記録されている各
画像についての画像処理の処理条件の演算を、画像記録
材料上での各画像の位置に応じたタイミングで各々行う
ので、上記効果に加え、処理対象の画像の画像記録材料
上での位置に拘わらず、最適なタイミングで画像処理の
処理条件の演算を行うことができる、という効果を有す
る。
According to a fourth aspect of the present invention, in the first or the second aspect of the present invention, the calculation of the image processing conditions for each image recorded on the image recording material is performed by each of the operations on the image recording material. Since each is performed at a timing according to the position of the image, in addition to the above effects, regardless of the position of the image to be processed on the image recording material, it is possible to calculate the processing conditions of the image processing at the optimal timing. It has the effect of.

【0118】請求項5記載の発明は、請求項2の発明に
おいて、画像記録材料に記録されている各画像について
画像処理の処理条件の演算を行うタイミングを、設定手
段によって設定された齣数に応じて変更するので、上記
効果に加え、設定手段を介して設定された齣数に拘わら
ず最適なタイミングで画像処理の処理条件の演算を行う
ことができる、という効果を有する。
According to a fifth aspect of the present invention, in the second aspect of the present invention, the timing at which the image processing conditions are calculated for each image recorded on the image recording material is adjusted to the number of exposures set by the setting means. Since it is changed in accordance with the above-described effects, in addition to the above-described effects, there is an effect that the processing conditions of the image processing can be calculated at an optimum timing regardless of the number of exposures set via the setting unit.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態に係る画像処理システムの概略構成
図である。
FIG. 1 is a schematic configuration diagram of an image processing system according to an embodiment.

【図2】本実施形態に係る画像読取・処理条件演算処理
の内容を示すフローチャートである。
FIG. 2 is a flowchart showing the contents of image reading / processing condition calculation processing according to the embodiment.

【図3】色・濃度変換条件設定処理の内容を示すフロー
チャートである。
FIG. 3 is a flowchart showing the contents of a color / density conversion condition setting process.

【図4】(A)及び(B)は高彩度の画素を多数含む画
像、(C)は前記画像から高彩度画素を除外した後の、
RGB濃度座標上における各画素のデータの分布の一例
を示す概念図である。
FIGS. 4A and 4B are images including a large number of high-saturation pixels, and FIG. 4C is a diagram after removing high-saturation pixels from the image;
FIG. 4 is a conceptual diagram showing an example of a distribution of data of each pixel on RGB density coordinates.

【図5】(A)乃至(C)は高彩度画素の抽出方法の他
の例を説明するための概念図である。
FIGS. 5A to 5C are conceptual diagrams for explaining another example of a method for extracting a high-saturation pixel.

【図6】(A)は複数の画像から各々抽出したグレー候
補画素から成るグレー候補画素群のRGB濃度座標上に
おける分布の一例を示す概念図、(B)は(A)に示し
たグレー候補画素群からの特定の画像のグレー軸の推定
を説明するための概念図である。
FIG. 6A is a conceptual diagram showing an example of a distribution on a RGB density coordinate of a gray candidate pixel group composed of gray candidate pixels respectively extracted from a plurality of images, and FIG. 6B is a conceptual diagram showing the gray candidate shown in FIG. It is a conceptual diagram for explaining estimation of the gray axis of the specific image from a pixel group.

【図7】変換条件の演算に用いる画像の齣数M=3の場
合の処理シーケンスの一例を示す概念図である。
FIG. 7 is a conceptual diagram showing an example of a processing sequence when the number of exposures of an image used for calculating a conversion condition is M = 3.

【符号の説明】[Explanation of symbols]

12 フィルムスキャナ 14 画像処理装置 26 写真フィルム 30 エリアCCD 40 イメージプロセッサ 42 制御部 44 キーボード 12 Film Scanner 14 Image Processing Device 26 Photo Film 30 Area CCD 40 Image Processor 42 Control Unit 44 Keyboard

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 長尺状の画像記録材料に記録された複数
の画像を順に読み取る読取手段と、 前記画像記録材料に記録されている画像を前記読取手段
が読み取ることで得られた画像情報を記憶する記憶手段
と、 処理対象の画像の画像情報に対する画像処理の処理条件
を、前記処理対象の画像及び画像記録材料上で前記処理
対象の画像と近接した位置に記録されている画像から成
る、前記画像記録材料に記録された画像の総齣数よりも
少ない所定の齣数の画像の画像情報を用いて演算するこ
とを、前記画像記録材料に記録されている各画像を処理
対象の画像として順に行う演算手段と、 を含む画像処理装置。
A reading unit for sequentially reading a plurality of images recorded on a long image recording material; and image information obtained by reading the image recorded on the image recording material by the reading unit. A storage unit for storing, the processing conditions of the image processing for the image information of the image to be processed, the image to be processed, and an image recorded on the image recording material at a position close to the image to be processed, To calculate using the image information of the image of the predetermined number of exposures smaller than the total number of exposures of the image recorded on the image recording material, each image recorded on the image recording material as an image to be processed An image processing apparatus comprising: an arithmetic unit that performs an order;
【請求項2】 長尺状の画像記録材料に記録された複数
の画像を順に読み取る読取手段と、 前記画像記録材料に記録されている画像を前記読取手段
が読み取ることで得られた画像情報を記憶する記憶手段
と、 処理対象の画像の画像情報に対する画像処理の処理条件
を、前記処理対象の画像及び画像記録材料上で前記処理
対象の画像と近接した位置に記録されている画像から成
る予め設定された齣数の画像の画像情報を用いて演算す
ることを、前記画像記録材料に記録されている各画像を
処理対象の画像として順に行う演算手段と、 前記演算手段が前記各画像について画像処理の処理条件
を演算する際に画像情報を用いる画像の齣数を設定する
ための設定手段と、 を含む画像処理装置。
2. A reading unit for sequentially reading a plurality of images recorded on a long image recording material, and image information obtained by reading the image recorded on the image recording material by the reading unit. A storage unit for storing, and a processing condition of the image processing for the image information of the image to be processed, wherein the processing conditions are determined in advance from the image to be processed and the image recorded at a position close to the image to be processed on the image recording material. A calculating means for sequentially calculating each image recorded on the image recording material as an image to be processed, wherein the calculating means performs the calculation using the image information of the image having the set number of exposures; and Setting means for setting the number of exposures of an image using image information when calculating processing conditions of the processing.
【請求項3】 前記演算手段は、画像処理の処理条件の
演算に画像情報を用いる処理対象の画像以外の画像を、
前記読取手段による画像の読取方向に沿って処理対象の
画像の前側の画像の齣数と後側の画像の齣数が略同一と
なるように選択することを特徴とする請求項1又は請求
項2記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the calculating unit is configured to convert an image other than a processing target image using image information into a calculation of a processing condition of the image processing.
2. The image processing apparatus according to claim 1, wherein the number of exposures of an image on the front side of the image to be processed and the number of exposures of an image on the rear side of the image to be processed are selected to be substantially the same along the reading direction of the image. 2. The image processing apparatus according to 2.
【請求項4】 前記演算手段は、前記画像記録材料に記
録されている各画像についての前記画像処理の処理条件
の演算を、画像記録材料上での各画像の位置に応じたタ
イミングで各々行うことを特徴とする請求項1又は請求
項2記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the calculation unit calculates the processing conditions of the image processing for each image recorded on the image recording material at a timing corresponding to a position of each image on the image recording material. The image processing apparatus according to claim 1, wherein:
【請求項5】 前記演算手段は、前記画像記録材料に記
録されている各画像について前記画像処理の処理条件の
演算を行うタイミングを、前記設定手段によって設定さ
れた齣数に応じて変更することを特徴とする請求項2記
載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the calculating unit changes a timing at which a processing condition of the image processing is calculated for each image recorded on the image recording material according to the number of exposures set by the setting unit. The image processing apparatus according to claim 2, wherein:
【請求項6】 長尺状の画像記録材料に記録された画像
を読み取り、読み取りによって得られた画像情報を記憶
手段に記憶することを、前記画像記録材料に記録された
複数の画像について順に行うと共に、 処理対象の画像の画像情報に対する画像処理の処理条件
を、前記処理対象の画像及び画像記録材料上で前記処理
対象の画像と近接した位置に記録されている画像から成
る、前記画像記録材料に記録された画像の総齣数よりも
少ない所定の齣数の画像の画像情報を用いて演算するこ
とを、前記画像記録材料に記録されている各画像を処理
対象の画像として順に行う画像処理方法。
6. An image recorded on a long image recording material is read, and image information obtained by the reading is stored in a storage unit in order for a plurality of images recorded on the image recording material. The image recording material, comprising: a processing condition of image processing for image information of an image to be processed, wherein the image recording material comprises an image recorded at a position close to the image to be processed on the image to be processed and the image recording material. Image processing of calculating each image recorded on the image recording material as an image to be processed in order to calculate using image information of an image having a predetermined number of exposures smaller than the total number of exposures of images recorded on the image recording material Method.
【請求項7】 長尺状の画像記録材料に記録された各画
像の画像情報に対する画像処理の処理条件を演算する際
に画像情報を用いる画像の齣数を予め設定しておき、 前記画像記録材料に記録された画像を読み取り、読み取
りによって得られた画像情報を記憶手段に記憶すること
を、前記画像記録材料に記録された複数の画像について
順に行うと共に、 処理対象の画像の画像情報に対する画像処理の処理条件
を、前記処理対象の画像及び画像記録材料上で前記処理
対象の画像と近接した位置に記録されている画像から成
る前記設定した齣数の画像の画像情報を用いて演算する
ことを、前記画像記録材料に記録されている各画像を処
理対象の画像として順に行う画像処理方法。
7. The image recording apparatus according to claim 1, wherein the number of exposures of the image using the image information is calculated in advance when calculating image processing conditions for the image information of each image recorded on the long image recording material. Reading the image recorded on the material, and storing the image information obtained by the reading in the storage means for the plurality of images recorded on the image recording material in order, and performing image processing for the image information of the image to be processed. Calculating a processing condition of the processing by using image information of the image of the set number of exposures, which includes the image to be processed and an image recorded at a position close to the image to be processed on the image recording material. In which the images recorded on the image recording material are sequentially processed as images to be processed.
JP11205960A 1999-07-21 1999-07-21 Picture processor and its method Pending JP2001036761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11205960A JP2001036761A (en) 1999-07-21 1999-07-21 Picture processor and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11205960A JP2001036761A (en) 1999-07-21 1999-07-21 Picture processor and its method

Publications (1)

Publication Number Publication Date
JP2001036761A true JP2001036761A (en) 2001-02-09

Family

ID=16515567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11205960A Pending JP2001036761A (en) 1999-07-21 1999-07-21 Picture processor and its method

Country Status (1)

Country Link
JP (1) JP2001036761A (en)

Similar Documents

Publication Publication Date Title
JP3903083B2 (en) Image processing apparatus, method, and recording medium
JP3556859B2 (en) Image correction method, image correction device, and recording medium
JP2001186325A (en) Method and device for processing picture, recording medium and transmitting medium
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
EP1265436B1 (en) Picture image processing apparatus and method, and picture processing system
JPH11266358A (en) Image processing method
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JPH1075374A (en) Image processing unit and its method
JP3576809B2 (en) Image processing device
JP2001036761A (en) Picture processor and its method
JP2001222710A (en) Device and method for image processing
US20020012126A1 (en) Image processing method and apparatus
US7272257B2 (en) Method for determining whether photographic image is different-color-structure photographic image and photographic image processing apparatus
JPH11194866A (en) Image processor
JPH1153535A (en) Method and device for image reproduction
JPH11275365A (en) Method for processing picture and its device
JPH1013680A (en) Image processing method and image processor
JP2000004352A (en) Image processing method and image processor
US7269282B2 (en) Method for determining whether photographic image is different-light-source photographic image and photographic image processing apparatus
JP3740150B2 (en) How to create an index print
JP2000278528A (en) Image processor and image processing method
JP3614541B2 (en) Digital printer and image data conversion method and image recording method therefor
JP3688857B2 (en) Image reading device
JP3715033B2 (en) Image processing method and image processing apparatus
JP2001024887A (en) Method for discriminating similar scene