JPH11346303A - Image processing method - Google Patents

Image processing method

Info

Publication number
JPH11346303A
JPH11346303A JP11097012A JP9701299A JPH11346303A JP H11346303 A JPH11346303 A JP H11346303A JP 11097012 A JP11097012 A JP 11097012A JP 9701299 A JP9701299 A JP 9701299A JP H11346303 A JPH11346303 A JP H11346303A
Authority
JP
Japan
Prior art keywords
image
data
striation
area
glitter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11097012A
Other languages
Japanese (ja)
Inventor
Naoki Takaoka
直樹 高岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11097012A priority Critical patent/JPH11346303A/en
Publication of JPH11346303A publication Critical patent/JPH11346303A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily obtain an image, without using a special filter, equivalent to an image whose image tone is changed by intention through the use of the special filter. SOLUTION: All highlight points are extracted from an image (refer to figure (A)) to which addition of striation is instructed and an area on which many highlight points are concentrated (an area where many highlight points are in existence adjacent to each other or closely to each other) is extracted as a bright area (an example of extraction of a bright area is shown in mark '.'in figure (B)). Then a parameter to specify the striation added to each bright area is decided based on a characteristic amount such as lightness, size and color of the right area and striation data representing striation added to each bright area are generated. The generated striation data are synthesized with image data and the resulting image data are used to record an image on a recording material so as to obtain an image with an image tone equal to that of an image photographed by using a special filter such as a cross filter.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理方法に係
り、特に、画像データが表す画像の画調を意図的に変更
する画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, and more particularly to an image processing method for intentionally changing the tone of an image represented by image data.

【0002】[0002]

【従来の技術】従来より、写真フィルムに露光記録され
た画像を、CCDセンサ等の読取センサを備えたフィル
ム読取装置によって読み取り、読み取りによって得られ
た画像データに対して各種の補正等の画像処理を行い、
画像処理後の画像データに基づいて記録材料への画像の
記録等を行う画像処理システムが知られている。この画
像処理システムでは、フィルム画像を面露光により印画
紙に記録する従来の写真処理システムと比較して、画像
データに対する画像処理により記録画像の画質を自在に
コントロールできる、という特長を有している。
2. Description of the Related Art Conventionally, an image recorded on a photographic film by exposure is read by a film reading device provided with a reading sensor such as a CCD sensor, and image processing such as various corrections is performed on image data obtained by reading. Do
2. Description of the Related Art An image processing system that records an image on a recording material based on image data after image processing is known. This image processing system has a feature that the image quality of a recorded image can be freely controlled by image processing on image data, as compared with a conventional photographic processing system that records a film image on photographic paper by surface exposure. .

【0003】[0003]

【発明が解決しようとする課題】ところで、カメラによ
って写真フィルムに画像を露光記録する際にカメラに装
着されて使用されるフィルタとしては、例えば色温度変
換フィルタ、色補正フィルタ、NDフィルタ、偏光フィ
ルタ等の種々のフィルタが知られているが、上記フィル
タ以外にも、意図的に画調を変えるための特殊フィルタ
(例えば輝く水面や夜景を撮影した際に、画像中の高輝
度領域を中心として1本又は複数本の光条が画像上に放
射状に現れるクロスフィルタ等)も用意されている。
By the way, when an image is exposed and recorded on a photographic film by a camera, the filter mounted and used on the camera includes, for example, a color temperature conversion filter, a color correction filter, an ND filter, and a polarization filter. Various filters such as are known. In addition to the above filters, a special filter for intentionally changing the image tone (for example, when photographing a shining water surface or a night scene, focusing on a high luminance area in the image) A cross filter or the like in which one or more striations appear radially on an image is also provided.

【0004】しかし、クロスフィルタ等の特殊フィルタ
は、前述のように意図的に画調を変えるためのものであ
るので撮影時に常に使用されるものではなく、画調を変
えてシーンを撮影したいときにのみ撮影者によってカメ
ラに装着され、前記シーンの撮影を完了した後はカメラ
から取り外されて保管される。従って、画調を変えた画
像を得るためには、未使用時の特殊フィルタの保管にも
注意を払う必要があることを含めて、特殊フィルタの取
り扱いが煩雑であるという問題があった。
However, a special filter such as a cross filter is used for intentionally changing the image tone as described above, and is not always used at the time of photographing. The camera is attached to the camera only by the photographer, and after the shooting of the scene is completed, it is removed from the camera and stored. Therefore, in order to obtain an image with a changed image tone, there is a problem that handling of the special filter is complicated, including the need to pay attention to storage of the special filter when not in use.

【0005】また、レンズ付きフィルム、コンパクトカ
メラ等の比較的廉価なカメラや、近年急速に普及してき
ているディジタルカメラの中にはフィルタを取付けるこ
とができないものが殆どであり、これらのカメラを使用
して撮影を行った場合には、クロスフィルタ等の特殊フ
ィルタを使用して意図的に画調を変えた画像を得ること
はできない。
[0005] In addition, most of relatively inexpensive cameras such as a film with a lens and a compact camera, and digital cameras that have been rapidly spread in recent years, cannot be equipped with a filter. When photographing is performed by using a special filter such as a cross filter, it is not possible to obtain an image whose image tone is intentionally changed.

【0006】更に、特殊フィルタを取付可能なカメラを
使用する場合であっても、撮影時に特殊フィルタを使用
すれば画調を変えた画像が得られるものの、例えば特殊
フィルタを使用せずに撮影した画像の仕上がりを見て、
撮影後に画調を変えることは不可能であった。
Further, even when a camera to which a special filter can be attached is used, an image with a changed tone can be obtained by using the special filter at the time of photographing, but for example, photographing is performed without using the special filter. Look at the finished image,
It was not possible to change the picture tone after shooting.

【0007】本発明は上記事実を考慮して成されたもの
で、特殊フィルタを使用して意図的に画調を変えた画像
と同等の画像を、特殊フィルタを使用することなく容易
に得ることができる画像処理方法を得ることが目的であ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above facts, and it is possible to easily obtain an image equivalent to an image whose image tone is intentionally changed using a special filter without using a special filter. It is an object of the present invention to obtain an image processing method capable of performing the following.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る画像処理方法は、画像デー
タに基づいて画像中の光輝領域を抽出し、抽出した光輝
領域に基づいて、光輝領域から延びる光条を表す光条デ
ータを前記画像データに合成する。
According to an aspect of the present invention, there is provided an image processing method comprising: extracting a glittering region in an image based on image data; And streak data representing a streak extending from the brilliant region is combined with the image data.

【0009】請求項1記載の発明は、画像データに基づ
いて画像中の光輝領域を抽出する。なお、上記の画像デ
ータは、通常のカメラによって写真フィルムに露光記録
されたフィルム画像や、普通紙等の他の記録媒体に記録
された画像を読み取ることによって得られた画像データ
であってもよいし、ディジタルカメラによって情報記憶
媒体に記憶された画像データであってもよく、濃度を表
すデータであっても輝度を表すデータであってもよい。
また、画像中の光輝領域の抽出は、具体的には、例えば
請求項2に記載したように、画像データに基づいて画像
中のハイライト点を抽出し、ハイライト点が集中してい
る領域を抽出することで行うことができる。
According to the first aspect of the present invention, a bright region in an image is extracted based on image data. Note that the image data may be image data obtained by reading a film image recorded on a photographic film by exposure with a normal camera or an image recorded on another recording medium such as plain paper. However, the image data may be image data stored in an information storage medium by a digital camera, and may be data representing density or data representing luminance.
Further, the extraction of the brilliant region in the image is performed, for example, by extracting the highlight points in the image based on the image data and extracting the highlight regions in the image as described in claim 2. Can be performed by extracting

【0010】そして請求項1の発明では、抽出した光輝
領域に基づいて、光輝領域から延びる光条を表す光条デ
ータを画像データに合成する。この光条データとして
は、例えば請求項6に記載したように、光輝領域から放
射状に延びる複数本の光条を表す第1の光条データを用
いることができる。また、請求項6に記載したように、
光輝領域から延び多角形状の高輝度領域を含んだ光条を
表す第2の光条データを用いてもよい。
According to the first aspect of the present invention, streak data representing a streak extending from the glitter area is combined with image data based on the extracted glitter area. As the streak data, for example, as described in claim 6, first streak data representing a plurality of streaks radially extending from the bright region can be used. Also, as described in claim 6,
Second streak data representing a streak extending from the bright region and including a polygonal high-brightness region may be used.

【0011】上記により、画像データが表す画像は光輝
領域から光条が伸びている画像となるので、画像データ
が表す画像の画調を、クロスフィルタ等を用いて撮影が
行われた画像と同様の画調に変化させることができる。
このように、従来は取り扱いが煩雑なクロスフィルタ等
の特殊フィルタを使用して撮影を行わなければ得ること
ができなかった特有の画調の画像を、クロスフィルタ等
を使用して撮影を行うことなく得ることができるので、
請求項1の発明によれば、クロスフィルタ等の特殊フィ
ルタを使用して意図的に画調を変えた画像と同等の画像
を、クロスフィルタ等の特殊フィルタを使用することな
く容易に得ることができる。
According to the above, the image represented by the image data is an image in which the streaks extend from the brilliant region, so that the image tone of the image represented by the image data is the same as the image photographed by using the cross filter or the like. Can be changed.
As described above, using a cross filter or the like to shoot an image with a unique image tone that could not be obtained unless a conventional filter such as a cross filter or the like that is complicated to handle was used for shooting. So you can get
According to the first aspect of the present invention, it is possible to easily obtain an image equivalent to an image whose image tone is intentionally changed using a special filter such as a cross filter without using a special filter such as a cross filter. it can.

【0012】また、本発明において、画像から抽出した
全ての光輝領域に対して光条を付加したとすると、不自
然な画像となることがある。例えば蛍光灯等のように比
較的広い面積から均一な光を発する発光体が画像中に被
写体として存在していた場合、光輝領域として前記発光
体が抽出されることにより前記発光体に光条を付加した
とすると、不自然な画像となる。このため、請求項3記
載の発明は、請求項1の発明において、前記抽出した光
輝領域の形状に基づいて、前記抽出した光輝領域の中か
ら、前記光条データによって光条を付加する光輝領域を
選択することを特徴としている。
Further, in the present invention, if striations are added to all glitter areas extracted from an image, an unnatural image may be obtained. For example, if a luminous body that emits uniform light from a relatively large area such as a fluorescent lamp is present as a subject in an image, the luminous body is extracted as a luminous region, so that striations are formed on the luminous body. If added, an unnatural image will result. Therefore, the invention according to claim 3 is the invention according to claim 1, wherein a glitter area is added from the extracted glitter area based on the shape of the extracted glitter area based on the stripe data. Is selected.

【0013】請求項3の発明では、光条を付加する光輝
領域を光輝領域の形状に基づいて選択するので、例えば
円形又は円形に近い形状の光輝領域に対してのみ光条を
付加する等により、蛍光灯等のように光条を付加すると
不自然な発光体等に対応する光輝領域を、光条を付加す
る光輝領域から除外することができる。従って、画像デ
ータが表す画像に対し、不自然さが感じられないように
光条を付加することができる。
According to the third aspect of the present invention, the glitter area to which the streak is added is selected based on the shape of the glitter area. For example, the streak is added only to the circular or nearly circular glitter area. When a striation is added, such as a fluorescent lamp, a glitter region corresponding to an unnatural illuminant or the like can be excluded from the glitter region to which the striation is added. Therefore, striations can be added to the image represented by the image data so that unnaturalness is not felt.

【0014】請求項4記載の発明に係る画像処理方法
は、画像中の光輝領域を生成すべき位置が設定され、前
記設定された位置に光輝領域が生ずるように画像データ
を変更し、生成した光輝領域に基づいて、光輝領域から
延びる光条を表す光条データを前記画像データに合成す
る。
In the image processing method according to the fourth aspect of the present invention, a position where a glitter area in the image is to be generated is set, and the image data is changed and generated so that a glitter area is generated at the set position. Based on the brilliant region, striation data representing a striation extending from the brilliant region is combined with the image data.

【0015】請求項4記載の発明では、画像中の光輝領
域を生成すべき位置が設定され、設定された位置に光輝
領域が生ずるように画像データを変更する。これによ
り、光輝領域を生成すべき位置として設定された画像中
の位置が、ハイライト点が集中していない位置、或いは
ハイライト点が存在していない位置であったとしても、
該位置に光輝領域が生成されることになり、光輝領域を
生成すべき位置を設定することで、画像中の任意の位置
に光輝領域を生成することができる。
According to the fourth aspect of the present invention, a position at which a glitter area in the image is to be generated is set, and the image data is changed so that the glitter area is generated at the set position. Thereby, even if the position in the image set as the position where the glittering region should be generated is a position where highlight points are not concentrated or a position where no highlight point exists,
A glitter area is generated at the position, and a glitter area can be generated at an arbitrary position in the image by setting a position where the glitter area is to be generated.

【0016】そして請求項4の発明では、生成した光輝
領域に基づいて、光輝領域から延びる光条を表す光条デ
ータを画像データに合成する。この光条データとして
も、例えば請求項6に記載した第1の光条データ、或い
は第2の光条データを用いることができる。上記によ
り、画像データが表す画像は光輝領域から光条が伸びて
いる画像となるので、画像データが表す画像の画調を、
クロスフィルタ等を用いて撮影が行われた画像と同様の
画調に変化させることができる。
According to the fourth aspect of the present invention, streak data representing a streak extending from the glitter area is combined with image data based on the generated glitter area. As the striation data, for example, the first striation data or the second striation data described in claim 6 can be used. According to the above, the image represented by the image data is an image in which the streaks extend from the brilliant region.
Using a cross filter or the like, it is possible to change the image tone to the same as the image captured.

【0017】従って請求項4の発明によれば、請求項1
の発明と同様に、クロスフィルタ等の特殊フィルタを使
用して意図的に画調を変えた画像と同等の画像を、クロ
スフィルタ等の特殊フィルタを使用することなく容易に
得ることができる。
Therefore, according to the invention of claim 4, according to claim 1,
Similarly to the invention of the first aspect, an image equivalent to an image whose image tone is intentionally changed using a special filter such as a cross filter can be easily obtained without using a special filter such as a cross filter.

【0018】ところで、請求項4の発明において、設定
された位置に生成する光輝領域の明るさ、大きさ、形状
及び色味は予め固定的に定めておいてもよいが、請求項
5に記載したように、生成すべき光輝領域を規定するパ
ラメータとして光輝領域の明るさ、大きさ、形状及び色
味の少なくとも1つが設定され、設定されたパラメータ
に応じた光輝領域が生ずるように画像データの変更を行
うことが好ましい。これにより、画像中に生成される光
輝領域の明るさ、大きさ、形状、色味を任意に変更する
ことが可能となる。
According to the fourth aspect of the present invention, the brightness, size, shape, and color of the glittering area generated at the set position may be fixedly determined in advance. As described above, at least one of the brightness, size, shape, and color of the glitter area is set as a parameter that defines the glitter area to be generated, and the image data of the image data is generated such that a glitter area according to the set parameters is generated. It is preferable to make changes. This makes it possible to arbitrarily change the brightness, size, shape, and color of the glittering area generated in the image.

【0019】なお、画像データに合成する光条データ
は、例えば画像データへの合成を行う際に、抽出又は生
成した光輝領域に基づいて生成するようにしてもよい
し、予め複数種の光条データを生成しておき、画像デー
タへの合成を行う際に、抽出又は生成した光輝領域に基
づいて、前記複数種の光条データの中から合成する光条
データを選択するようにしてもよい。
The striation data to be synthesized with the image data may be generated based on the extracted or generated luminous region when synthesizing the image data, for example. Data may be generated in advance, and when combining with image data, striation data to be synthesized may be selected from the plurality of types of striation data based on the extracted or generated glitter area. .

【0020】また、クロスフィルタ等の特殊フィルタを
使用して撮影を行うことで撮影画像上に現れる光条の長
さ、太さ、色味等は、光源(画像上の光輝領域に相当す
る光条発生源)の特徴量に応じて変化する。このため、
請求項7記載の発明は、請求項1又は請求項4の発明に
おいて、抽出又は生成した光輝領域の明るさ、大きさ、
及び色味の少なくとも1つの特徴量に基づいて、合成す
べき光条を規定するパラメータを決定し、決定したパラ
メータに基づいて光条データを生成又は選択することを
特徴としている。
The length, thickness, color, and the like of striations appearing on a photographed image by photographing using a special filter such as a cross filter are determined by a light source (light corresponding to a bright region on the image). It changes according to the feature value of the source of the streak. For this reason,
According to a seventh aspect of the present invention, in the first or fourth aspect, the brightness, size,
And a parameter defining a striation to be synthesized based on at least one characteristic amount of color and color, and striation data is generated or selected based on the determined parameter.

【0021】請求項7の発明において、光条を規定する
パラメータとしては、例えば光条の長さ、太さ、色味等
が挙げられ、例えば光輝領域の明るさ(輝度)が明るく
なるに従って(或いは光輝領域の大きさが大きくなるに
従って)、光条の長さを長くしたり、光条の太さを太く
することができる。また、例えば光条の色味が光輝領域
の色味に一致するように、光条の色味を定めることがで
きる。
In the invention of claim 7, the parameters defining the striations include, for example, the length, thickness, and color of the striations. For example, as the brightness (brightness) of the brilliant region becomes brighter ( Alternatively, as the size of the glittering area increases), the length of the streak can be increased or the thickness of the streak can be increased. Further, for example, the color of the striations can be determined so that the color of the striations matches the color of the glittering region.

【0022】請求項7の発明では、上記のように光輝領
域の明るさ、大きさ、及び色味の少なくとも1つの特徴
量に基づいて光条を規定するパラメータを決定し、決定
したパラメータに基づいて光条データを生成又は選択し
ているので、光条データが表す光条を、クロスフィルタ
等の特殊フィルタを使用して撮影を行った場合に撮影画
像上に現れる光条に近似させることができる。従って、
画像データに光条データを合成することで画像中に付加
した光条が、画像目視時に違和感を与えることを防止で
きる。
According to the seventh aspect of the present invention, the parameters defining the striations are determined based on at least one of the brightness, size, and color of the glittering area as described above, and based on the determined parameters. Striation data is generated or selected, so that the striations represented by the striation data can be approximated to the striations that appear on the captured image when photographing is performed using a special filter such as a cross filter. it can. Therefore,
By synthesizing the striation data with the image data, it is possible to prevent the striation added in the image from giving a sense of incongruity when viewing the image.

【0023】請求項8記載の発明は、請求項1又は請求
項4の発明において、合成すべき光条を規定するパラメ
ータが設定され、設定されたパラメータに基づいて光条
データを生成又は選択することを特徴としている。請求
項8の発明では、設定されたパラメータに基づいて光条
データが生成又は選択されるので、合成すべき光条の長
さ、太さ、色味等を任意に設定することができる。
According to an eighth aspect of the present invention, in the first or the fourth aspect of the present invention, a parameter defining a striation to be synthesized is set, and striation data is generated or selected based on the set parameter. It is characterized by: In the invention of claim 8, since the striation data is generated or selected based on the set parameters, it is possible to arbitrarily set the length, thickness, color, etc. of the striation to be combined.

【0024】また、クロスフィルタ等の特殊フィルタに
は様々な種類があるので、クロクフィルタによって撮影
画像上に付加される光条にも様々な種類があり、例えば
撮影画像上に現れる光条の形状についても、高輝度領域
から離れるに従って太さが徐々に細くなるものや、太さ
が周期的に変化するもの等がある。また、周期的に色相
が変化するものもある。
Also, since there are various types of special filters such as a cross filter, there are various types of striations added to a photographed image by a black filter, for example, the shape of striations appearing in a photographed image. Also, there is a type in which the thickness gradually decreases as the distance from the high-luminance region increases, and a type in which the thickness changes periodically. In addition, there is a type in which the hue changes periodically.

【0025】このため、請求項9にも記載したように、
光条の太さ及び色味の少なくとも一方が、光輝領域から
の距離によって変化するように光条データを生成するこ
とが好ましい。請求項9の発明によれば、光条の太さ及
び色味の少なくとも一方を、光輝領域からの距離によっ
て変化させるので、様々な特殊フィルタを使用すること
で撮影画像上に付加される様々な種類の光条を再現する
ことができる。
Therefore, as described in claim 9,
It is preferable that the striation data is generated such that at least one of the thickness and the color of the striation changes depending on the distance from the glittering region. According to the ninth aspect of the present invention, at least one of the thickness and the color of the striation is changed depending on the distance from the glittering region. Different striations can be reproduced.

【0026】ところで本発明において、光条データを合
成した画像データは、例えば記録材料への画像の記録に
用いるか、又は情報記憶媒体に記憶することができる。
この場合、請求項10に記載したように、記録材料への
画像の記録、又は情報記憶媒体への記憶を行う前に、画
像データ(光条データを合成する前の画像データ)又は
光条データを合成した画像データが表す画像を表示手段
に表示する。なお、光条データを合成した画像データが
表す画像を表示手段に表示するようにした場合には、記
録材料への画像の記録、又は情報記憶媒体への記憶を行
う前に、光条が加わった画像を目視により予め確認する
ことができるので好ましい。
In the present invention, the image data obtained by synthesizing the striation data can be used, for example, for recording an image on a recording material or can be stored in an information storage medium.
In this case, as described in claim 10, before recording an image on a recording material or storing on an information storage medium, image data (image data before combining streak data) or striation data Is displayed on the display means. When the image represented by the image data obtained by synthesizing the striation data is displayed on the display means, the striation is added before recording the image on the recording material or storing the image on the information storage medium. This is preferable because the image can be confirmed visually in advance.

【0027】また、請求項10の発明では、表示手段に
表示した画像に基づいて入力された指示に応じて、光条
データによって光条を付加する光輝領域を選択又は生成
し、光条データを生成又は選択又は修正して画像データ
に合成する。なお、表示手段に表示した画像に基づいて
入力される指示は、画像中の特定範囲内に存在する全て
の光輝領域に光条を付加する指示であってもよいし、特
定範囲内に存在する光輝領域のうちの1つにのみ光条を
付加する指示であってもよいし、特定範囲内に存在する
全ての光輝領域に光条を付加しない指示であってもよ
い。また、前記指示は、画像中の特定の位置に光輝領域
を生成して光条を付加する指示であってもよい。
According to the tenth aspect of the present invention, in accordance with an instruction input based on an image displayed on the display means, a glitter area to which a streak is added is selected or generated by the streak data, and the streak data is converted. Generated, selected or modified and combined with image data. Note that the instruction input based on the image displayed on the display means may be an instruction to add a streak to all glittering regions existing in a specific range in the image, or may be an instruction existing in the specific range. The instruction may be an instruction to add a streak to only one of the glitter areas, or an instruction to not add a streak to all the glitter areas existing within a specific range. Further, the instruction may be an instruction to generate a glitter area at a specific position in the image and add a streak.

【0028】上記の指示に応じて光条データを生成又は
選択又は修正することにより、抽出した光輝領域のうち
の任意の光輝領域に光条を付加したり、処理対象の画像
を確認しながら任意の位置に光輝領域を生成して光条を
付加することが可能となり、所望の光輝領域に光条が付
加された画像を得ることができる。
By generating, selecting, or modifying the streak data in accordance with the above instruction, streaks can be added to any of the extracted glitter regions, and any stripe can be added while checking the image to be processed. It is possible to add a streak by generating a glittering region at the position, and obtain an image in which a streak is added to a desired glittering region.

【0029】また、光条データを合成した画像データを
記録材料への画像の記録に用いる場合、画像データが表
す画像の濃度範囲を記録材料上で画像として再現される
範囲に応じて変換する階調変換を行う必要があるが、こ
の階調変換に伴って画像中の高輝度領域(濃度が最低又
は最低に近い値の領域)のデータの値が飽和することが
ある。この場合、階調変換後の画像データが表す画像は
前記高輝度領域が白くとんだ画像となるので、光輝領域
の色味等の情報が失われると共に、階調変換後の画像デ
ータに光条データを合成したとすると、合成した光条デ
ータが表す光条が、階調変換後の画像データが表す画像
と対比で不自然に見えることがある。
When image data obtained by synthesizing striation data is used for recording an image on a recording material, a density range of the image represented by the image data is converted according to a range reproduced as an image on the recording material. Tone conversion needs to be performed, but the value of data in a high-luminance region (a region where the density is the lowest or a value close to the lowest) in the image may be saturated with the gradation conversion. In this case, the image represented by the image data after the gradation conversion is an image in which the high-luminance area is white, so that the information such as the tint of the glittering area is lost, and the image data after the gradation conversion contains striation data. Are combined, the striations represented by the combined striation data may look unnatural in contrast to the image represented by the image data after gradation conversion.

【0030】このため請求項11記載の発明は、請求項
1又は請求項4の発明において、光条データを画像デー
タに合成した後に、光条データを合成した画像データに
対し、記録材料への画像の記録に用いるための階調変換
を行うことを特徴としている。請求項11の発明では、
光条データを画像データに合成した後に階調変換を行う
ので、画像データに合成した光条データに対しても、同
一の階調変換条件で同時に階調変換が行われることにな
る。従って、光条データが表す光条が不自然に見えるこ
とを防止することができる。
Therefore, in the invention according to claim 11, in the invention according to claim 1 or 4, after striation data is synthesized with image data, the image data obtained by synthesizing striation data is applied to a recording material. It is characterized in that gradation conversion for use in image recording is performed. In the invention of claim 11,
Since the gradation conversion is performed after the striation data is combined with the image data, the gradation conversion is also performed simultaneously on the striation data combined with the image data under the same gradation conversion condition. Therefore, it is possible to prevent the striations represented by the striation data from looking unnatural.

【0031】また、請求項7に記載したように、光輝領
域の色味等の特徴量に基づいて光条を規定するパラメー
タを決定する場合にも、階調変換前の画像データであれ
ば光輝領域の色味等の特徴量が情報として含まれている
ので、階調変換前の画像データを用いて光輝領域の特徴
量を抽出することにより、光輝領域の特徴量を正確に抽
出することができる。
Further, as described in claim 7, when determining the parameter defining the striation based on the characteristic amount such as the color of the glittering area, if the image data is not gradation-converted, the brightness is determined. Since the feature amount such as the color of the region is included as information, the feature amount of the glitter region can be accurately extracted by extracting the feature amount of the glitter region using the image data before gradation conversion. it can.

【0032】[0032]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。なお、以下では、まず
本発明を適用可能なディジタルラボシステムについて説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings. Hereinafter, a digital laboratory system to which the present invention can be applied will be described first.

【0033】(システム全体の概略構成)図1には本実
施形態に係るディジタルラボシステム10の概略構成が
示されており、図2にはディジタルラボシステム10の
外観が示されている。図1に示すように、このラボシス
テム10は、ラインCCDスキャナ14、画像処理部1
6、レーザプリンタ部18、及びプロセッサ部20を含
んで構成されており、ラインCCDスキャナ14と画像
処理部16は、図2に示す入力部26として一体化され
ており、レーザプリンタ部18及びプロセッサ部20
は、図2に示す出力部28として一体化されている。
(Schematic Configuration of Entire System) FIG. 1 shows a schematic configuration of a digital lab system 10 according to the present embodiment, and FIG. 2 shows an external appearance of the digital lab system 10. As shown in FIG. 1, the lab system 10 includes a line CCD scanner 14, an image processing unit 1
6, a laser printer unit 18 and a processor unit 20. The line CCD scanner 14 and the image processing unit 16 are integrated as an input unit 26 shown in FIG. Part 20
Are integrated as an output unit 28 shown in FIG.

【0034】ラインCCDスキャナ14は、ネガフィル
ムやリバーサルフィルム等の写真フィルムに記録されて
いるフィルム画像を読み取るためのものであり、例えば
135サイズの写真フィルム、110サイズの写真フィ
ルム、及び透明な磁気層が形成された写真フィルム(2
40サイズの写真フィルム:所謂APSフィルム)、1
20サイズ及び220サイズ(ブローニサイズ)の写真
フィルムのフィルム画像を読取対象とすることができ
る。ラインCCDスキャナ14は、上記の読取対象のフ
ィルム画像を3ラインカラーCCDで読み取り、R、
G、Bの画像データを出力する。
The line CCD scanner 14 is for reading a film image recorded on a photographic film such as a negative film or a reversal film. For example, a 135 size photographic film, a 110 size photographic film, and a transparent magnetic film are used. Photographic film (2
40 size photographic film: so-called APS film), 1
Film images of photographic films of sizes 20 and 220 (Broni size) can be read. The line CCD scanner 14 reads the film image to be read with a three-line color CCD,
G and B image data are output.

【0035】画像処理部16は、ラインCCDスキャナ
14から出力された画像データ(スキャンデータ)が入
力されると共に、デジタルカメラでの撮影によって得ら
れた画像データ、フィルム画像以外の原稿(例えば反射
原稿等)をスキャナで読み取ることで得られた画像デー
タ、コンピュータで生成された画像データ等(以下、こ
れらをファイル画像データと総称する)を外部から入力
する(例えば、メモリカード等の記憶媒体を介して入力
したり、通信回線を介して他の情報処理機器から入力す
る等)ことも可能なように構成されている。
The image processing unit 16 receives image data (scan data) output from the line CCD scanner 14 and obtains image data obtained by photographing with a digital camera and a document other than a film image (for example, a reflection document). ) Is input from outside (e.g., via a storage medium such as a memory card). Input from another information processing device via a communication line, etc.).

【0036】画像処理部16は、入力された画像データ
に対して各種の補正等の画像処理を行って、記録用画像
データとしてレーザプリンタ部18へ出力する。また、
画像処理部16は、画像処理を行った画像データを画像
ファイルとして外部へ出力する(例えばメモリカード等
の記憶媒体に出力したり、通信回線を介して他の情報処
理機器へ送信する等)ことも可能とされている。
The image processing section 16 performs image processing such as various corrections on the input image data, and outputs the image data to the laser printer section 18 as recording image data. Also,
The image processing unit 16 outputs image data on which image processing has been performed to an external device as an image file (for example, outputs the image data to a storage medium such as a memory card, or transmits the image data to another information processing device via a communication line). It is also possible.

【0037】レーザプリンタ部18はR、G、Bのレー
ザ光源を備えており、画像処理部16から入力された記
録用画像データに応じて変調したレーザ光を印画紙に照
射して、走査露光によって印画紙に画像を記録する。ま
た、プロセッサ部20は、レーザプリンタ部18で走査
露光によって画像が記録された印画紙に対し、発色現
像、漂白定着、水洗、乾燥の各処理を施す。これによ
り、印画紙上に画像が形成される。
The laser printer section 18 is provided with R, G, and B laser light sources, and irradiates a photographic paper with laser light modulated in accordance with recording image data input from the image processing section 16 to perform scanning exposure. To record an image on photographic paper. Further, the processor unit 20 performs each process of color development, bleach-fix, washing, and drying on the photographic paper on which the image is recorded by the scanning exposure by the laser printer unit 18. Thus, an image is formed on the printing paper.

【0038】(画像処理部の構成)次に画像処理部16
の構成について図3を参照して説明する。画像処理部1
6は、ラインCCDスキャナ14から入力されるR、
G、Bのデータに対応してラインスキャナ補正部122
R、122G、122Bが設けられている。ラインスキ
ャナ補正部122R、122G、122Bは互いに同一
の構成であり、以下ではこれらを区別せずに「ラインス
キャナ補正部122」と総称する。
(Configuration of Image Processing Unit) Next, the image processing unit 16
Will be described with reference to FIG. Image processing unit 1
6 is R input from the line CCD scanner 14,
The line scanner correction unit 122 corresponding to the G and B data
R, 122G, and 122B are provided. The line scanner correction units 122R, 122G, and 122B have the same configuration, and are hereinafter generically referred to as “line scanner correction unit 122” without distinction.

【0039】ラインスキャナ補正部122は、ラインC
CDスキャナ14から入力されたスキャンデータに対
し、暗補正、濃度変換、シェーディング補正、欠陥画素
補正の各処理を施す。暗補正は、ラインCCDスキャナ
14のラインCCDの光入射側が遮光されている状態で
ラインCCDスキャナ14から入力されたデータ(ライ
ンCCDの各セルの暗出力レベルを表すデータ)を各セ
ル毎に記憶しておき、ラインCCDが写真フィルムを読
み取ることによってラインCCDスキャナ14から入力
されたスキャンデータから、各画素毎に対応するセルの
暗出力レベルを減ずることによって成される。
The line scanner correction unit 122 outputs the line C
The scan data input from the CD scanner 14 is subjected to dark correction, density conversion, shading correction, and defective pixel correction. In the dark correction, data (data representing the dark output level of each cell of the line CCD) input from the line CCD scanner 14 in a state where the light incident side of the line CCD of the line CCD scanner 14 is shielded is stored for each cell. In addition, this is achieved by reducing the dark output level of the cell corresponding to each pixel from the scan data input from the line CCD scanner 14 by reading the photographic film by the line CCD.

【0040】またラインスキャナ補正部122は、対数
変換を行うためのデータが記憶されたルックアップテー
ブル(LUT)を備えている。前述の濃度変換は、暗補
正が行われたデータ(このデータはラインCCDへの入
射光量を表す)を、前述のLUTにより、ラインCCD
スキャナ14にセットされた写真フィルムの濃度を表す
データに変換することによって成される。また、ライン
スキャナ補正部122は、ラインCCDスキャナ14に
写真フィルムがセットされていない状態でラインCCD
の各セルに均一な光を入射することで得られるデータ
(シェーディングデータ)を記憶している。前述のシェ
ーディング補正は、写真フィルム読取時に、濃度変換さ
れたデータを、前記シェーディングデータに基づいて画
素単位で補正することによって成される。
The line scanner correction section 122 has a look-up table (LUT) in which data for performing logarithmic conversion is stored. In the density conversion described above, data subjected to dark correction (this data represents the amount of light incident on the line CCD) is converted into a line CCD by the aforementioned LUT.
The conversion is performed by converting the data into data representing the density of the photographic film set on the scanner 14. Further, the line scanner correction unit 122 operates the line CCD scanner 14 in a state where no photographic film is set on the line CCD scanner 14.
(Shading data) obtained by making uniform light incident on each cell. The above-described shading correction is performed by correcting the density-converted data in pixel units based on the shading data when reading a photographic film.

【0041】ところで、CCDセンサは、製造時の歩留
りとの兼ね合いにより、入射光の光量に正確に対応した
信号が出力されないセル(所謂欠陥画素)が出荷時より
存在していたり、或いは経時的に欠陥画素が発生するこ
とがある。このため、ラインスキャナ補正部122は、
欠陥画素の有無を予め判定すると共に欠陥画素が有った
場合には該欠陥画素のアドレスを記憶しておき、シェー
ディング補正が行われたデータのうち、欠陥画素のデー
タについては周囲の画素のデータから補間してデータを
新たに生成する(欠陥画素補正)。
By the way, in the CCD sensor, cells (so-called defective pixels) that do not output a signal accurately corresponding to the amount of incident light exist at the time of shipment, or due to a balance with the yield at the time of manufacturing, or the CCD sensor Defective pixels may occur. For this reason, the line scanner correction unit 122
The presence or absence of a defective pixel is determined in advance, and if there is a defective pixel, the address of the defective pixel is stored. To generate new data by interpolation (defective pixel correction).

【0042】ラインスキャナ補正部122の出力端はセ
レクタ132の入力端に接続されており、ラインスキャ
ナ補正部122で暗補正、濃度変換、シェーディング補
正、欠陥画素補正の各処理が施されたデータは、スキャ
ンデータとしてセレクタ132に入力される。また、セ
レクタ132の入力端は入出力コントローラ134のデ
ータ出力端にも接続されており、入出力コントローラ1
34からは、外部から入力されたファイル画像データが
セレクタ132に入力される。セレクタ132の出力端
は入出力コントローラ134、イメージプロセッサ部1
36A、136Bのデータ入力端に各々接続されてい
る。セレクタ132は、入力された画像データを、入出
力コントローラ134、イメージプロセッサ部136
A、136Bの各々に選択的に出力可能とされている。
The output terminal of the line scanner correction unit 122 is connected to the input terminal of the selector 132, and the data which has been subjected to the dark correction, density conversion, shading correction, and defective pixel correction by the line scanner correction unit 122 are , Are input to the selector 132 as scan data. The input terminal of the selector 132 is also connected to the data output terminal of the input / output controller 134.
From 34, file image data input from the outside is input to the selector 132. The output terminal of the selector 132 is an input / output controller 134, an image processor unit 1
36A and 136B are respectively connected to the data input terminals. The selector 132 converts the input image data into an input / output controller 134 and an image processor 136.
A and 136B can be selectively output.

【0043】イメージプロセッサ部136Aは、メモリ
コントローラ138、イメージプロセッサ140、3個
のフレームメモリ142A、142B、142Cを備え
ている。フレームメモリ142A、142B、142C
は各々1フレーム分のフィルム画像の画像データを記憶
可能な容量を有しており、セレクタ132から入力され
た画像データは3個のフレームメモリ142の何れかに
記憶されるが、メモリコントローラ138は、入力され
た画像データの各画素のデータが、フレームメモリ14
2の記憶領域に一定の順序で並んで記憶されるように、
画像データをフレームメモリ142に記憶させる際のア
ドレスを制御する。
The image processor 136A includes a memory controller 138, an image processor 140, and three frame memories 142A, 142B, 142C. Frame memories 142A, 142B, 142C
Has a capacity capable of storing image data of a film image for one frame, and the image data input from the selector 132 is stored in any of the three frame memories 142. The memory controller 138 The data of each pixel of the input image data is stored in the frame memory 14.
2 so that they are stored in a certain order in the storage area,
The address at which the image data is stored in the frame memory 142 is controlled.

【0044】イメージプロセッサ140は、フレームメ
モリ142に記憶された画像データを取込み、階調変
換、色変換、画像の超低周波輝度成分の階調を圧縮する
ハイパートーン処理、粒状を抑制しながらシャープネス
を強調するハイパーシャープネス処理等の各種の画像処
理を行う。なお、上記の画像処理の処理条件は、オート
セットアップエンジン144(後述)によって自動的に
演算され、演算された処理条件に従って画像処理が行わ
れる。イメージプロセッサ140は入出力コントローラ
134に接続されており、画像処理を行った画像データ
は、フレームメモリ142に一旦記憶された後に、所定
のタイミングで入出力コントローラ134へ出力され
る。なお、イメージプロセッサ部136Bは、上述した
イメージプロセッサ部136Aと同一の構成であるので
説明を省略する。
The image processor 140 takes in the image data stored in the frame memory 142, performs gradation conversion, color conversion, hypertone processing for compressing the gradation of an ultra-low frequency luminance component of the image, and sharpness while suppressing graininess. Various image processing such as hyper sharpness processing for emphasizing is performed. Note that the processing conditions of the above image processing are automatically calculated by an auto setup engine 144 (described later), and the image processing is performed according to the calculated processing conditions. The image processor 140 is connected to the input / output controller 134, and the image data subjected to the image processing is temporarily stored in the frame memory 142 and then output to the input / output controller 134 at a predetermined timing. Note that the image processor unit 136B has the same configuration as the above-described image processor unit 136A, and a description thereof will be omitted.

【0045】ところで、本実施形態では個々のフィルム
画像に対し、ラインCCDスキャナ14において異なる
解像度で2回の読み取りを行う。1回目の比較的低解像
度での読み取り(以下、プレスキャンという)では、フ
ィルム画像の濃度が非常に低い場合(例えばネガフィル
ムにおける露光アンダのネガ画像)にも、ラインCCD
で蓄積電荷の飽和が生じないように決定した読取条件
(写真フィルムに照射する光のR、G、Bの各波長域毎
の光量、ラインCCDの電荷蓄積時間)で写真フィルム
の全面の読み取りが行われる。このプレスキャンによっ
て得られたデータ(プレスキャンデータ)は、セレクタ
132から入出力コントローラ134に入力され、更に
入出力コントローラ134に接続されたオートセットア
ップエンジン144に出力される。
In the present embodiment, each line image is read twice by the line CCD scanner 14 at different resolutions. In the first reading at a relatively low resolution (hereinafter, referred to as pre-scan), even when the density of the film image is extremely low (for example, a negative image of an underexposure in a negative film), a line CCD is used.
The reading of the entire surface of the photographic film is performed under the reading conditions determined so that the accumulated charge does not saturate (the amount of light for irradiating the photographic film in each of the R, G, and B wavelength ranges, and the charge storage time of the line CCD). Done. Data (pre-scan data) obtained by the pre-scan is input from the selector 132 to the input / output controller 134, and further output to the auto setup engine 144 connected to the input / output controller 134.

【0046】オートセットアップエンジン144は、C
PU146、RAM148(例えばDRAM)、ROM
150(例えば記憶内容を書換え可能なROM)、入出
力ポート152を備え、これらがバス154を介して互
いに接続されて構成されている。
The auto setup engine 144 has a C
PU 146, RAM 148 (for example, DRAM), ROM
150 (for example, a rewritable ROM) and an input / output port 152, which are connected to each other via a bus 154.

【0047】オートセットアップエンジン144は、入
出力コントローラ134から入力されたプレスキャンデ
ータに基づいてフィルム画像のコマ位置を判定し、写真
フィルム上のフィルム画像が記録されている領域に対応
するデータ(プレスキャン画像データ)を抽出する。ま
た、プレスキャン画像データに基づいて、フィルム画像
のサイズを判定すると共に濃度等の画像特徴量を演算
し、プレスキャンを行った写真フィルムに対し、ライン
CCDスキャナ14が比較的高解像度での再度の読み取
り(以下、ファインスキャンという)を行う際の読取条
件を決定する。そしてコマ位置、種別及び読取条件をラ
インCCDスキャナ14に出力する。
The auto set-up engine 144 determines the frame position of the film image based on the pre-scan data input from the input / output controller 134, and determines the data (press) corresponding to the area where the film image is recorded on the photographic film. (Can image data). Further, based on the pre-scanned image data, the size of the film image is determined, and the image feature amount such as density is calculated. (Hereinafter referred to as fine scan) is determined. Then, the frame position, type and reading condition are output to the line CCD scanner 14.

【0048】また、オートセットアップエンジン144
は、複数コマ分のフィルム画像のプレスキャン画像デー
タに基づいて、ラインCCDスキャナ14がファインス
キャンを行うことによって得られる画像データ(ファイ
ンスキャン画像データ)に対する画像処理の処理条件を
演算し、演算した処理条件をイメージプロセッサ部13
6のイメージプロセッサ140へ出力する。
The auto setup engine 144
Calculated the image processing conditions for image data (fine scan image data) obtained by performing fine scan by the line CCD scanner 14 based on pre-scan image data of a film image for a plurality of frames. Processing conditions are set in the image processor unit 13
6 to the image processor 140.

【0049】この画像処理の処理条件の演算では、撮影
時の露光量、撮影光源種やその他の特徴量から類似のシ
ーンを撮影した複数のフィルム画像が有るか否か判定
し、類似のシーンを撮影した複数のフィルム画像が有っ
た場合には、これらのフィルム画像のファインスキャン
画像データに対する画像処理の処理条件が同一又は近似
するように決定する。
In the calculation of the processing conditions of the image processing, it is determined whether or not there are a plurality of film images of similar scenes based on the exposure amount at the time of photographing, the type of illuminating light source and other characteristic amounts. If there are a plurality of photographed film images, it is determined that the processing conditions of the image processing for the fine scan image data of these film images are the same or similar.

【0050】なお、画像処理の最適な処理条件は、画像
処理後の画像データを、レーザプリンタ部18における
印画紙への画像の記録に用いるのか、外部へ出力するの
か等によっても変化する。画像処理部16には2つのイ
メージプロセッサ部136A、136Bが設けられてい
るので、例えば、画像データを印画紙への画像の記録に
用いると共に外部へ出力する等の場合には、オートセッ
トアップエンジン144は各々の用途に最適な処理条件
を各々演算し、イメージプロセッサ部136A、136
Bへ出力する。これにより、イメージプロセッサ部13
6A、136Bでは、同一のファインスキャン画像デー
タに対し、互いに異なる処理条件で画像処理が行われ
る。
The optimum processing conditions for image processing vary depending on whether the image data after image processing is used for recording an image on photographic paper in the laser printer unit 18 or output to the outside. Since the image processing unit 16 is provided with two image processor units 136A and 136B, for example, when the image data is used for recording an image on photographic paper and is output to the outside, the auto setup engine 144 is used. Calculates the optimal processing conditions for each application, and calculates the image processor units 136A and 136A.
Output to B. Thereby, the image processor unit 13
6A and 136B, the same fine scan image data is subjected to image processing under different processing conditions.

【0051】更に、オートセットアップエンジン144
は、入出力コントローラ134から入力されたフィルム
画像のプレスキャン画像データに基づいて、レーザプリ
ンタ部18で印画紙に画像を記録する際のグレーバラン
ス等を規定する画像記録用パラメータを算出し、レーザ
プリンタ部18に記録用画像データ(後述)を出力する
際に同時に出力する。また、オートセットアップエンジ
ン144は、外部から入力されるファイル画像データに
対しても、上記と同様にして画像処理の処理条件を演算
する。
Further, the auto setup engine 144
Calculates an image recording parameter that defines a gray balance or the like when an image is recorded on photographic paper by the laser printer unit 18 based on the pre-scan image data of the film image input from the input / output controller 134, The image data is output simultaneously when the image data for recording (described later) is output to the printer unit 18. Further, the auto setup engine 144 calculates the processing conditions of the image processing for the file image data input from the outside in the same manner as described above.

【0052】入出力コントローラ134はI/F回路1
56を介してレーザプリンタ部18に接続されている。
画像処理後の画像データを印画紙への画像の記録に用い
る場合には、イメージプロセッサ部136で画像処理が
行われた画像データは、入出力コントローラ134から
I/F回路156を介し記録用画像データとしてレーザ
プリンタ部18へ出力される。また、オートセットアッ
プエンジン144はパーソナルコンピュータ158に接
続されている。画像処理後の画像データを画像ファイル
として外部へ出力する場合には、イメージプロセッサ部
136で画像処理が行われた画像データは、入出力コン
トローラ134からオートセットアップエンジン144
を介してパーソナルコンピュータ158に出力される。
The input / output controller 134 is an I / F circuit 1
It is connected to the laser printer section 18 via 56.
When the image data after image processing is used for recording an image on photographic paper, the image data processed by the image processor 136 is transferred from the input / output controller 134 via the I / F circuit 156 to the recording image. The data is output to the laser printer unit 18 as data. The auto setup engine 144 is connected to a personal computer 158. When the image data after the image processing is output to the outside as an image file, the image data processed by the image processor unit 136 is sent from the input / output controller 134 to the auto setup engine 144.
Is output to the personal computer 158 via the.

【0053】パーソナルコンピュータ158は、CPU
160、メモリ162、請求項10に記載の表示手段に
対応するディスプレイ164、キーボード166(ディ
スプレイ164及びキーボード166については図2も
参照)、ハードディスク168、CD−ROMドライバ
170、搬送制御部172、拡張スロット174、画像
圧縮/伸長部176を備えており、これらがバス178
を介して互いに接続されて構成されている。搬送制御部
172は、ラインCCDスキャナ14にセットされるフ
ィルムキャリア38に接続されており、フィルムキャリ
ア38による写真フィルムの搬送を制御する。また、フ
ィルムキャリア38にAPSフィルムがセットされた場
合には、フィルムキャリア38がAPSフィルムの磁気
層から読み取った情報(例えばプリントサイズ等)が入
力される。
The personal computer 158 has a CPU
160, a memory 162, a display 164 corresponding to the display means according to claim 10, a keyboard 166 (see also FIG. 2 for the display 164 and the keyboard 166), a hard disk 168, a CD-ROM driver 170, a transport control unit 172, an extension A slot 174 and an image compression / decompression unit 176 are provided.
And are connected to each other via a. The transport controller 172 is connected to the film carrier 38 set on the line CCD scanner 14 and controls the transport of the photographic film by the film carrier 38. When an APS film is set on the film carrier 38, information (for example, print size) read from the magnetic layer of the APS film by the film carrier 38 is input.

【0054】また、メモリカード等の記憶媒体に対して
データの読出し/書込みを行うドライバ(図示省略)
や、他の情報処理機器と通信を行うための通信制御装置
は、拡張スロット174を介してパーソナルコンピュー
タ158に接続される。入出力コントローラ134から
外部への出力用の画像データが入力された場合には、前
記画像データは拡張スロット174を介して画像ファイ
ルとして外部(前記ドライバや通信制御装置等)に出力
される。また、拡張スロット174を介して外部からフ
ァイル画像データが入力された場合には、入力されたフ
ァイル画像データは、オートセットアップエンジン14
4を介して入出力コントローラ134へ出力される。こ
の場合、入出力コントローラ134では入力されたファ
イル画像データをセレクタ132へ出力する。
A driver (not shown) for reading / writing data from / to a storage medium such as a memory card.
A communication control device for communicating with another information processing device is connected to the personal computer 158 via the expansion slot 174. When image data for output to the outside is input from the input / output controller 134, the image data is output to the outside (the driver, the communication control device, or the like) as an image file via the expansion slot 174. When file image data is input from outside via the expansion slot 174, the input file image data
4 to the input / output controller 134. In this case, the input / output controller 134 outputs the input file image data to the selector 132.

【0055】(作用)次に本実施形態の作用として、写
真フィルムに記録されているフィルム画像をラインCC
Dスキャナ14によって読み取り、読み取りによって得
られたスキャンデータに基づいて、レーザプリンタ部1
8において印画紙への画像の記録を行う場合の画像処理
部16における処理について説明する。
(Operation) Next, as an operation of the present embodiment, a film image recorded on a photographic film is
The laser printer unit 1 is read by the D scanner 14 and based on the scan data obtained by the reading.
The processing in the image processing unit 16 when recording an image on photographic paper in step 8 will be described.

【0056】先にも説明したように、写真フィルムに記
録されているフィルム画像に対し、ラインCCDスキャ
ナ14は読み取りを2回行う(プレスキャン及びファイ
ンスキャン)。以下では、まずラインCCDスキャナ1
4において、写真フィルムの全面に対してプレスキャン
が行われ、画像処理部16にプレスキャンデータが入力
された場合に画像処理部16で実行されるプレスキャン
処理について、図4のフローチャートを参照して説明す
る。
As described above, the line CCD scanner 14 reads twice from the film image recorded on the photographic film (pre-scan and fine scan). In the following, first, the line CCD scanner 1
4, a prescan is performed on the entire surface of the photographic film, and a prescan process executed by the image processing unit 16 when prescan data is input to the image processing unit 16 is described with reference to the flowchart in FIG. 4. Will be explained.

【0057】ステップ200では、ラインCCDスキャ
ナ14から入力されたプレスキャンデータに対し、ライ
ンスキャナ補正部122によって暗補正、濃度変換、シ
ェーディング補正、欠陥画素補正の各処理が施される。
ラインスキャナ補正部122から出力されたプレスキャ
ンデータは、セレクタ132を介してオートセットアッ
プエンジン144に入力される。次のステップ202で
は、オートセットアップエンジン144において、ライ
ンCCDスキャナ14から入力されたプレスキャンデー
タに基づき、写真フィルム上のフィルム画像の記録位置
(コマ位置)を判定し、判定したコマ位置に基づいてプ
レスキャンデータからフィルム画像記録位置に対応する
プレスキャン画像データを切り出すことを、写真フィル
ムに記録された各フィルム画像について各々行う。
In step 200, the prescan data input from the line CCD scanner 14 is subjected to dark correction, density conversion, shading correction, and defective pixel correction by the line scanner correction unit 122.
The pre-scan data output from the line scanner correction unit 122 is input to the auto setup engine 144 via the selector 132. In the next step 202, the auto setup engine 144 determines the recording position (frame position) of the film image on the photographic film based on the pre-scan data input from the line CCD scanner 14, and based on the determined frame position. The prescan image data corresponding to the film image recording position is cut out from the prescan data for each film image recorded on the photographic film.

【0058】ところで、本実施形態に係るディジタルラ
ボシステム10は、ラインCCDスキャナ14と種類の
異なるフィルムスキャナを画像処理部16に接続するこ
とも可能とされている。しかし、上記構成では画像処理
部16に入力されるスキャンデータが、読み取りを行っ
たスキャナの種類毎に微妙に相違する。この相違は、各
種スキャナの構成の差異に起因しているので、次のステ
ップ204では、画像処理部16にスキャンデータを入
力したスキャナの種類を判別し、読み取りを行ったスキ
ャナの種類に拘らず、同一の写真フィルムを読み取った
ときのデータが互いに同一となるように、判別したスキ
ャナの種類に応じて各フィルム画像のプレスキャン画像
データを補正する、プレスキャン画像データの規格化を
行う。
In the digital lab system 10 according to the present embodiment, a film scanner of a different type from the line CCD scanner 14 can be connected to the image processing unit 16. However, in the above configuration, the scan data input to the image processing unit 16 slightly differs depending on the type of the scanner that has performed the reading. Since this difference is caused by the difference in the configuration of various scanners, in the next step 204, the type of the scanner that has input the scan data to the image processing unit 16 is determined, regardless of the type of the scanner that has performed the reading. Then, the pre-scan image data of each film image is corrected according to the determined type of the scanner so that the data obtained when the same photographic film is read are the same as each other.

【0059】ステップ206では、各フィルム画像のプ
レスキャン画像データに基づいて、各フィルム画像のサ
イズを判定すると共に、各フィルム画像の濃度等の画像
特徴量を各々演算する。そして各フィルム画像のサイズ
及び画像特徴量に基づいて、ラインCCDスキャナ14
が各フィルム画像についてファインスキャンを行う際の
読取条件を決定する。なお、演算した読取条件は各フィ
ルム画像を識別する情報(例えばコマ番号)と対応され
てRAM148に記憶され、ラインCCDスキャナ14
でファインスキャンが行われる際にラインCCDスキャ
ナ14に通知される。
In step 206, the size of each film image is determined based on the pre-scanned image data of each film image, and the image characteristics such as the density of each film image are calculated. Then, based on the size and image feature amount of each film image, the line CCD scanner 14
Determines the reading conditions when performing fine scan for each film image. The calculated reading conditions are stored in the RAM 148 in association with information (for example, a frame number) for identifying each film image, and are stored in the line CCD scanner 14.
Is notified to the line CCD scanner 14 when the fine scan is performed.

【0060】次のステップ208では、複数コマ分のフ
ィルム画像のプレスキャン画像データに基づいて、ライ
ンCCDスキャナ14がファインスキャンを行うことに
よって得られる画像データ(ファインスキャン画像デー
タ)に対する画像処理の処理条件を各フィルム画像毎に
演算する。なお、演算した処理条件は、各フィルム画像
を識別する情報(例えばコマ番号)と対応されてRAM
148に記憶され、ラインCCDスキャナ14からファ
インスキャン画像データが入力される際に、イメージプ
ロセッサ部136のイメージプロセッサ140に通知さ
れる。
In the next step 208, image processing is performed on image data (fine scan image data) obtained by performing fine scan by the line CCD scanner 14 on the basis of pre-scan image data of a plurality of frames of film images. The conditions are calculated for each film image. The calculated processing conditions are associated with information (for example, frame number) for identifying each film image and are stored in the RAM.
When the fine scan image data is input from the line CCD scanner 14, the image processor 140 of the image processor 140 is notified of the fine scan image data.

【0061】次のステップ210以降では、パーソナル
コンピュータ158で画像検定処理が行われる。すなわ
ち、ステップ210ではオートセットアップエンジン1
44からプレスキャン画像データ及び画像処理の処理条
件を取込み、取り込んだ処理条件に基づき、ファインス
キャン画像データを対象としてイメージプロセッサ14
0で実行される画像処理と等価な画像処理をプレスキャ
ン画像データに対して行ってシミュレーション画像デー
タを生成する。次のステップ212では、ステップ21
0で生成したシミュレーション画像データに基づいて、
ディスプレイ164にシミュレーション画像を表示す
る。
From the next step 210 onward, the personal computer 158 performs image verification processing. That is, in step 210, the auto setup engine 1
44, pre-scanned image data and image processing conditions are fetched from the image processor 14 based on the fetched processing conditions.
Image processing equivalent to the image processing executed in step 0 is performed on the prescanned image data to generate simulation image data. In the next step 212, step 21
0 based on the simulation image data generated
A simulation image is displayed on the display 164.

【0062】図5にはシミュレーション画像の表示の一
例を示す。図5では、6コマ分のフィルム画像のシミュ
レーション画像300を表示すると共に、ラインCCD
スキャナ14で読み取りを行っている写真フィルムのう
ち、表示しているシミュレーション画像300に対応す
るフィルム画像が記録されている部分もイメージ302
として表示しており、更に前記イメージ302として表
示している写真フィルム上で、表示しているシミュレー
ション画像300に対応するフィルム画像を枠304で
囲んで明示している。なお、図5では図示を省略してい
るが、ディスプレイ164には、画像の検定及び検定結
果の入力をオペレータに要請するメッセージも表示され
る。
FIG. 5 shows an example of the display of a simulation image. In FIG. 5, a simulation image 300 of a film image for six frames is displayed, and a line CCD is displayed.
Of the photographic film read by the scanner 14, a portion where a film image corresponding to the displayed simulation image 300 is recorded is also an image 302.
Further, on the photographic film displayed as the image 302, a film image corresponding to the displayed simulation image 300 is indicated by being surrounded by a frame 304. Although not shown in FIG. 5, the display 164 also displays a message requesting the operator to perform image verification and input of a verification result.

【0063】ディスプレイ164にシミュレーション画
像が表示されると、オペレータはシミュレーション画像
を目視で確認し、オートセットアップエンジン144に
よって判定されたコマ位置が適正か否か、シミュレーシ
ョン画像の画質が適正か否か(すなわちオートセットア
ップエンジン144で演算された処理条件が適正か否
か)、クロスフィルタ処理(詳細は後述)を行うことが
適当か否か等を検定し、検定結果を表す情報をキーボー
ド166を介して入力する。
When the simulation image is displayed on the display 164, the operator visually checks the simulation image, and determines whether or not the frame position determined by the auto setup engine 144 is appropriate and whether the image quality of the simulation image is appropriate ( That is, whether or not the processing conditions calculated by the auto setup engine 144 are appropriate), whether or not it is appropriate to perform cross filter processing (details will be described later), and the like are tested, and information representing the test results is input via the keyboard 166. input.

【0064】オペレータからキーボード166を介して
何らかの情報(指示)が入力されるとステップ214へ
移行し、入力された情報に基づき、シミュレーション画
像に対する検定結果として、特定のシミュレーション画
像に対して処理条件の修正が指示されたか否かを判定す
る。ステップ214の判定が肯定された場合にはステッ
プ216へ移行し、オペレータから入力された処理条件
の修正を指示する修正情報をオートセットアップエンジ
ン144へ出力し、前記特定のシミュレーション画像に
対応するフィルム画像の処理条件を修正するようオート
セットアップエンジン144に対して指示する。
When any information (instruction) is input from the operator via the keyboard 166, the process proceeds to step 214, and based on the input information, as a test result for the simulation image, a processing condition for a specific simulation image is determined. It is determined whether correction has been instructed. If the determination in step 214 is affirmative, the process proceeds to step 216, in which correction information for instructing correction of the processing conditions input by the operator is output to the auto setup engine 144, and the film image corresponding to the specific simulation image is output. To the auto setup engine 144 to correct the processing conditions.

【0065】これにより、オートセットアップエンジン
144では、ステップ208において前記特定のシミュ
レーション画像に対応するフィルム画像の処理条件を、
オペレータから入力された修正情報を考慮して再演算
(すなわち修正)する。そしてパーソナルコンピュータ
158によってステップ210、212が再度行われる
ことにより、修正された処理条件に基づいて、ディスプ
レイ164にシミュレーション画像300が再表示され
る。再表示された特定のシミュレーション画像をオペレ
ータが目視で確認することにより、オペレータは先に入
力した修正情報の内容が適正か否かを容易に判断でき
る。
In step 208, the auto setup engine 144 sets the processing conditions for the film image corresponding to the specific simulation image to
Recalculation (that is, correction) is performed in consideration of the correction information input from the operator. Then, the steps 210 and 212 are performed again by the personal computer 158, whereby the simulation image 300 is displayed again on the display 164 based on the corrected processing conditions. When the operator visually confirms the redisplayed specific simulation image, the operator can easily determine whether or not the content of the previously input correction information is appropriate.

【0066】また、ステップ214の判定が否定された
場合にはステップ218へ移行し、オペレータから入力
された情報に基づき、シミュレーション画像に対する検
定結果として、特定のシミュレーション画像に対してコ
マ位置の修正が指示されたか否かを判定する。ステップ
218の判定が肯定された場合にはステップ220へ移
行し、オペレータから入力されたコマ位置の修正を指示
する修正情報をオートセットアップエンジン144へ出
力し、前記特定のシミュレーション画像に対応するフィ
ルム画像のコマ位置を修正するようオートセットアップ
エンジン144に対して指示する。
If the determination in step 214 is denied, the process proceeds to step 218, where the frame position is corrected for a specific simulation image as a test result for the simulation image based on the information input by the operator. It is determined whether or not an instruction has been given. If the determination in step 218 is affirmative, the process proceeds to step 220, in which correction information instructing correction of the frame position input from the operator is output to the auto setup engine 144, and the film image corresponding to the specific simulation image is output. To the auto setup engine 144 to correct the frame position.

【0067】これにより、オートセットアップエンジン
144では、ステップ202において、前記特定のシミ
ュレーション画像に対応するフィルム画像のコマ位置を
修正し、修正したコマ位置に基づいてプレスキャンデー
タからのプレスキャン画像データの切り出しを再度行
う。そして、オートセットアップエンジン144によっ
てステップ204〜ステップ208の処理が再度行わ
れ、パーソナルコンピュータ158によってステップ2
10、212の処理が再度行われることにより、コマ位
置が修正されたシミュレーション画像300がディスプ
レイ164に再表示される。
Thus, in step 202, the auto setup engine 144 corrects the frame position of the film image corresponding to the specific simulation image, and converts the pre-scan image data from the pre-scan data based on the corrected frame position. Cut out again. Then, the processing of steps 204 to 208 is performed again by the auto setup engine 144, and the personal computer 158 executes step 2.
By performing the processing of steps 10 and 212 again, the simulation image 300 whose frame position has been corrected is displayed again on the display 164.

【0068】また、ステップ218の判定が否定された
場合にはステップ222へ移行し、オペレータから入力
された情報に基づき、シミュレーション画像に対する検
定結果として、特定のシミュレーション画像に対してク
ロスフィルタ処理の実行が指示されたか否か判定する。
このステップ222の判定が否定された場合は、検定結
果が「合格」と判断された場合であるので、プレスキャ
ン処理を終了する。これにより、写真フィルムに記録さ
れている各フィルム画像に対し、適正な読取条件及び処
理条件が各々設定されることになる。
If the determination in step 218 is denied, the process proceeds to step 222, where cross filter processing is performed on a specific simulation image as a test result on the simulation image based on the information input by the operator. Is determined.
If the determination in step 222 is denied, it means that the test result has been determined to be "passed", and the prescan processing ends. As a result, appropriate reading conditions and processing conditions are set for each film image recorded on the photographic film.

【0069】一方、上記の検定処理において、特定の画
像に対し、ユーザからクロスフィルタ等の特殊フィルタ
を使用して撮影した画像と同様の画調への変更が指示さ
れていた場合、或いはオペレータがシミュレーション画
像を目視し、特定の画像についてはクロスフィルタ等の
特殊フィルタを使用して撮影した画像と同様の画調に変
更することが適当であると自ら判断した等の場合、オペ
レータは前記特定の画像に対してクロスフィルタ処理の
実行を指示する情報をキーボード166を介して入力す
る。これにより、ステップ222の判定が肯定されてス
テップ224へ移行し、パーソナルコンピュータ158
によって前記特定の画像に対するクロスフィルタ処理が
実行される。以下、クロスフィルタ処理について、図6
のフローチャートを参照して説明する。
On the other hand, in the above-described verification processing, when the user instructs a specific image to change to the same image tone as an image captured using a special filter such as a cross filter, or If the operator visually observes the simulation image and determines that it is appropriate to change the specific image to the same image tone as the image captured using a special filter such as a cross filter, the operator can use the specific image. Information for instructing execution of the cross filter processing on the image is input via the keyboard 166. As a result, the determination in step 222 is affirmed, and the process proceeds to step 224, where the personal computer 158
Performs a cross filter process on the specific image. Hereinafter, the cross filter processing will be described with reference to FIG.
This will be described with reference to the flowchart of FIG.

【0070】本実施形態に係るクロスフィルタ処理は、
処理対象のフィルム画像を印画紙に記録したときの記録
画像の画調を、クロスフィルタ等の特殊フィルタを使用
して撮影した画像と同様の画調に変更するためのもので
あり、具体的には、処理対象のフィルム画像中のハイラ
イト点が集中している光輝領域(詳細は後述)を探索し
て抽出し、クロスフィルタ等を使用して撮影することで
画像に付加される光条と同様の光条を、前記抽出した光
輝領域を基準として記録画像に付加するための光条デー
タを生成するものである。
The cross filter processing according to the present embodiment
This is for changing the tone of the recorded image when the film image to be processed is recorded on photographic paper to the same tone as the image photographed using a special filter such as a cross filter. Is to search for and extract a brilliant region (details will be described later) in which highlight points are concentrated in the film image to be processed, and to apply a striation added to the image by photographing using a cross filter or the like. This is to generate striation data for adding a similar striation to a recorded image on the basis of the extracted glittering region.

【0071】本実施形態では、記録画像に付加可能な光
条として種々の光条が用意されており、例えば図7に示
すように、光輝領域からの距離の増大に従って徐々に太
さが細くなるように形状が定められた光条が光輝領域か
ら放射状に複数本延びて成る第1の光条群190(図7
(A)参照)、光輝領域からの距離の増大に対して太さ
が周期的に変動しながら徐々に細くなるように形状が定
められた光条が光輝領域から放射状に複数本延びて成る
第1の光条群192(図7(B)参照)、六角形状の高
輝度領域(他の形状(例えばN≧5のN角形)でもよ
い)が光輝領域から複数個連なって成る光条194(図
7(C)参照)等が用意されている。
In this embodiment, various striations are prepared as striations that can be added to a recorded image. For example, as shown in FIG. 7, as the distance from the glittering area increases, the thickness gradually decreases. A first group of striations 190 (FIG. 7) in which a plurality of striations having such a shape are radially extended from the bright region.
(See (A)), a plurality of striations extending radially from the glittering area and having a shape that is gradually reduced in thickness while periodically fluctuating as the distance from the glittering area increases. One streak group 192 (see FIG. 7 (B)), and a streak 194 (see FIG. 7 (B)) in which a plurality of hexagonal high-luminance regions (other shapes (for example, N.gtoreq.5 N-gons) may be continuous) from the bright region. 7 (C) is prepared.

【0072】なお、第1の光条群190を表す光条デー
タや第1の光条群192を表す光条データは請求項6に
記載の第1の光条データに対応しており、光条194を
表す光条データは請求項6に記載の第2の光条データに
対応している。また、上記の第1の光条群190、第1
の光条群192、及び光条194は、何れも光輝領域か
らの距離に応じて光条の太さが変化しており、上記のよ
うな光条を表す光条データを生成する(光条データの生
成については後述)ことは、請求項9の発明に対応して
いる。
The striation data representing the first striation group 190 and the striation data representing the first striation group 192 correspond to the first striation data according to claim 6. The striation data representing the striation 194 corresponds to the second striation data described in claim 6. Further, the first group of striations 190, the first
Each of the streak groups 192 and 194 has a thickness of the streak varying according to the distance from the glittering area, and generates streak data representing the streaks as described above (the streak data). The generation of data will be described later) corresponds to the ninth aspect of the present invention.

【0073】本実施形態に係るクロスフィルタ処理は、
まずステップ230において、記録画像に付加すべき光
条の種類、処理対象のフィルム画像中の光輝領域を探索
する範囲を指定するための探索範囲指定の有無、及び光
条を付加する光輝領域の個数を指定するための個数指定
の有無を表す情報の入力を要請するメッセージをディス
プレイ164に表示し、オペレータによりキーボード1
66を介して前記各種情報を入力させる。ステップ23
2では各種情報が入力される迄待機する。
The cross filter processing according to the present embodiment
First, in step 230, the type of striations to be added to the recorded image, the presence or absence of a search range designation for designating a range to search for a glittering region in the film image to be processed, and the number of glittering regions to which striations are added A message is displayed on the display 164 requesting input of information indicating the presence or absence of the number designation for designating the
The user inputs the above-mentioned various information via the input port 66. Step 23
In step 2, it waits until various information is input.

【0074】各種情報の入力を要請するメッセージがデ
ィスプレイ164に表示されると、オペレータは、ユー
ザからの指示又は自らの判断により、記録画像に付加す
べき光条の種類を選択し、選択した光条の種類を表す情
報を入力する。またオペレータは、フィルム画像中の特
定範囲内の光輝領域に対してのみ光条を付加したいと判
断した場合や、フィルム画像中の特定範囲外の光輝領域
に対してのみ光条を付加したいと判断した場合には「探
索範囲の指定有り」を表す情報を入力し、上記以外の場
合には「探索範囲の指定無し」を表す情報を入力する。
更にオペレータは、光輝領域が多数抽出される可能性が
有り、抽出された光輝領域に各々光条を付加することは
好ましくないと判断した場合には「個数指定有り」を表
す情報及び抽出する光輝領域の個数を指定する情報を入
力し、光条を付加する光輝領域の個数を制限する必要が
ないと判断した場合には「個数指定無し」を表す情報を
入力する。
When a message requesting input of various information is displayed on the display 164, the operator selects the type of striation to be added to the recorded image according to an instruction from the user or his own judgment, and Enter information indicating the type of article. In addition, the operator determines that a streak is to be added only to a glitter area within a specific range in the film image, or that the operator wants to add a streak only to a glitter area outside the specific range in the film image. In this case, information indicating "there is no search range specified" is input, and in other cases, information indicating "there is no search range specified" is input.
Further, if the operator determines that a large number of glittering areas may be extracted and it is not preferable to add striations to each of the extracted glittering areas, the information indicating “the number is specified” and the glitter to be extracted are determined. When information for designating the number of areas is input and it is determined that there is no need to limit the number of glitter areas to which striations are added, information representing "no number specified" is input.

【0075】上記のようにして各種情報が入力される
と、ステップ232の判定が肯定されてステップ234
へ移行する。ステップ234では、オペレータから「探
索範囲の指定有り」を表す情報が入力されたか否か判定
する。判定が否定された場合にはステップ236へ移行
し、処理対象のフィルム画像に対する光輝領域の探索範
囲としてフィルム画像の全面を設定し、ステップ242
へ移行する。また、ステップ234の判定が肯定された
場合にはステップ238へ移行し、光輝領域の探索範囲
の指定を要請するメッセージをディスプレイ164に表
示し、オペレータによりキーボード166(或いはマウ
ス等のポインティングデバイス)を介して光輝領域の探
索範囲が指定される迄待機する。
When various types of information are input as described above, the determination in step 232 is affirmed, and step 234 is performed.
Move to. In step 234, it is determined whether or not information representing “the search range is specified” is input from the operator. If the determination is negative, the process proceeds to step 236, where the entire surface of the film image is set as the search range of the glittering area for the film image to be processed, and step 242 is performed.
Move to. If the determination in step 234 is affirmative, the process proceeds to step 238, in which a message requesting designation of the search range of the glittering area is displayed on the display 164, and the keyboard 166 (or a pointing device such as a mouse) is operated by the operator. It waits until the search range of the brilliant area is designated through the reticle.

【0076】本実施形態では、光輝領域の探索範囲の指
定方法として、ディスプレイ164に処理対象のフィル
ム画像のシミュレーション画像が表示されている状態
で、前記シミュレーション画像上に、光輝領域の探索範
囲の外縁を示す線画を描画する方法と、又は光輝領域の
探索を行わない範囲(非探索範囲)の外縁を示す線画を
描画する方法が用意されている。探索範囲の指定を要請
するメッセージがディスプレイ164に表示されると、
オペレータは、光輝領域の探索範囲又は非探索範囲の外
縁を示す線画を、表示されているシミュレーション画像
上に描画する。
In the present embodiment, as a method of designating the search range of the glittering area, the outer periphery of the search range of the glittering area is displayed on the simulation image while the simulation image of the film image to be processed is displayed on the display 164. And a method of drawing a line drawing indicating the outer edge of a range (non-search range) in which the search for the glittering area is not performed is prepared. When a message requesting designation of a search range is displayed on the display 164,
The operator draws a line drawing indicating an outer edge of the search range or the non-search range of the glitter area on the displayed simulation image.

【0077】なお、このとき処理対象のフィルム画像の
シミュレーション画像を表示していることは、請求項1
0に記載の「記録材料への画像の記録を行う前に、画像
データが表す画像を表示手段に表示」することに対応し
ている。
At this time, the simulation image of the film image to be processed is displayed.
This corresponds to “displaying an image represented by image data on a display unit before recording an image on a recording material” described in No. 0.

【0078】上記のようにして光輝領域の探索範囲又は
非探索範囲が指定されると、ステップ238の判定が肯
定されてステップ240へ移行し、オペレータの指定に
応じて光輝領域の探索範囲を設定する。すなわち、探索
範囲が指定された場合には、指定された範囲を光輝領域
の探索範囲として設定し、非探索範囲が指定された場合
には、指定された範囲を除いた範囲を光輝領域の探索範
囲として設定する。光輝領域は、設定した探索範囲内で
のみ探索されるので、ステップ240における探索範囲
の設定は、請求項10に記載の「表示手段に表示した画
像に基づいて入力された指示に応じて、光条データによ
って光条を付加する光輝領域を選択」することに対応し
ている。
When the search range or the non-search range of the glittering area is specified as described above, the determination in step 238 is affirmed, and the process proceeds to step 240, where the search range of the glittering area is set according to the designation of the operator. I do. That is, when the search range is specified, the specified range is set as the search range of the glittering area, and when the non-search range is specified, the range excluding the specified range is searched for the glittering area. Set as a range. Since the glittering area is searched only within the set search range, the setting of the search range in step 240 is performed according to an instruction input based on the image displayed on the display means according to claim 10. "Selecting a glittering area to which a streak is added according to the streak data".

【0079】ステップ242では、処理対象のフィルム
画像の濃度を表すプレスキャン画像データを取り込み、
取り込んだプレスキャン画像データに基づいて、ステッ
プ236又はステップ240で設定した探索範囲内に存
在するハイライト点(例えばフィルム画像がネガ画像の
場合にはR、G、B(三色)平均濃度が最大又は最大に
近い値の画素、フィルム画像がポジ画像の場合には三色
平均濃度が最小又は最小に近い値の画素)を全て抽出す
る。次のステップ244では、ステップ242における
ハイライト点の抽出結果に基づき、多数個のハイライト
点が集中している領域(多数個のハイライト点が隣接或
いは近接して存在している領域)を、探索範囲内の光輝
領域として抽出する。なお、上記のステップ242、2
44による光輝領域の抽出は請求項2の発明に対応して
いる。
In step 242, prescan image data representing the density of the film image to be processed is fetched,
Based on the captured pre-scan image data, highlight points existing within the search range set in step 236 or step 240 (for example, if the film image is a negative image, the average density of R, G, B (three colors) All the pixels having the maximum or a value close to the maximum, or the pixels having the three-color average density of the minimum or the value close to the minimum when the film image is a positive image are all extracted. In the next step 244, an area where many highlight points are concentrated (an area where many highlight points are adjacent or close to each other) is determined based on the result of highlight point extraction in step 242. Is extracted as a bright region within the search range. Note that the above steps 242, 2
The extraction of the brilliant region by 44 corresponds to the second aspect of the present invention.

【0080】ステップ246では、ステップ244で抽
出した光輝領域のデータをプレスキャン画像データから
抽出し、抽出した光輝領域のデータに基づいて、光輝領
域の色味、明るさ、大きさ及び形状の各特徴量を各光輝
領域毎に演算する。なお、光輝領域の色味としては、例
えば光輝領域内のR、G、B毎の平均濃度の差又は比を
用いることができ、光輝領域の明るさとしては、例えば
光輝領域内の三色平均濃度を用いることができ、光輝領
域の大きさとしては例えば光輝領域内の画素数を用いる
ことができる。また、光輝領域の形状としては、形状の
複雑度eを用いることができる(次式参照)。複雑度e
は形状が円形のときに最小となり、形状が複雑になるに
従って値が大きくなる。
In step 246, the data of the glitter area extracted in step 244 is extracted from the pre-scan image data, and based on the extracted data of the glitter area, each of the color, brightness, size and shape of the glitter area is extracted. The feature amount is calculated for each glitter area. In addition, as the tint of the brilliant area, for example, a difference or ratio of the average density of each of R, G, and B in the brilliant area can be used. The density can be used. As the size of the glittering area, for example, the number of pixels in the glittering area can be used. Further, as the shape of the glittering region, the complexity e of the shape can be used (see the following equation). Complexity e
Is minimum when the shape is circular, and increases as the shape becomes more complicated.

【0081】 e=(光輝領域の周囲長)2/(光輝領域の面積) ステップ248では、ステップ246で各光輝領域毎に
演算した特徴量に基づいて(「個数指定有り」の場合に
は指定された光輝領域の個数も考慮して)、光条を付加
する光輝領域を選択する。この光輝領域の選択は、例え
ば以下に列挙する選択条件を順に適用することで行うこ
とができる。
E = (perimeter of glittering area) 2 / (area of glittering area) In step 248, based on the feature amount calculated for each glittering area in step 246 (if “number is specified”, specify In consideration of the number of the glittering regions that have been applied (see also the number of glittering regions), the glittering region to which the streak is added is selected. The selection of the brilliant region can be performed, for example, by sequentially applying the following selection conditions.

【0082】(1) 形状が円形と大きく異なると判断でき
る光輝領域(例えば複雑度eが所定値以上の光輝領域)
は除外する。これにより、蛍光灯等のように光条を付加
すると不自然な発光体等に対応する光輝領域を、光条を
付加する光輝領域から除外することができる。なお、こ
の選択条件は請求項3の発明に対応している。
(1) A bright region in which the shape can be determined to be significantly different from a circle (for example, a bright region having a complexity e equal to or more than a predetermined value)
Is excluded. This makes it possible to exclude a glitter region corresponding to an unnatural illuminant or the like to which a streak is added, such as a fluorescent lamp, from a glitter region to which a streak is added. This selection condition corresponds to the third aspect of the present invention.

【0083】(2) 選択条件(1) で除外されずに残った光
輝領域の数が、指定された光輝領域の個数よりも多い場
合には、各光輝領域の明るさ及び大きさの何れか一方を
比較し、明るさが低い、或いは大きさが小さい光輝領域
を除外することを、指定された個数と同数になる迄繰り
返す。これにより、光条を付加するに相応しい光輝領域
のみが除外されずに残ることになる。この選択条件も請
求項10に記載の「表示手段に表示した画像に基づいて
入力された指示に応じて、光条データによって光条を付
加する光輝領域を選択」することに対応している。
(2) If the number of glittering regions remaining without being excluded by the selection condition (1) is larger than the number of designated glittering regions, one of the brightness and size of each glittering region is selected. The comparison of one side and the exclusion of a bright area having a low brightness or a small size are repeated until the number becomes equal to the designated number. As a result, only the bright region suitable for adding the streak remains without being excluded. The selection condition also corresponds to claim 10 "selecting a glitter area to which a streak is to be added according to streak data in accordance with an instruction input based on an image displayed on the display means".

【0084】なお、「個数指定無し」の場合にも、明る
さが所定値以下の光輝領域や大きさが所定値以下の光輝
領域が存在していた場合には、これを除外するようにし
てもよい。また、色座標上で所定範囲内に入る色味の光
輝領域を除外したり、逆に色座標上で所定範囲内に入る
色味の光輝領域のみを選択するようにしてもよい。
In the case of "no number specified", if there is a bright area whose brightness is equal to or less than a predetermined value or a bright area whose size is equal to or less than a predetermined value, this is excluded. Is also good. In addition, it is also possible to exclude a brilliant region having a tint falling within a predetermined range on the color coordinates, or to select only a shining region having a tint falling within the predetermined range on the color coordinates.

【0085】上記のようにして光条を付加する光輝領域
を選択すると、次のステップ250において、選択した
光輝領域の特徴量及びフィルム画像全面の平均濃度(L
ATD)に基づき、指定された光条の種類も考慮して、
選択した光輝領域に付加する光条を規定するパラメータ
を決定する。このパラメータとしては、例えば光条の長
さ、太さ、色味、複数本の光条から成る光条群(例えば
図7に示す第1の光条群190や第1の光条群192
等)を付加する場合の各光条の交差角度等が挙げられ
る。このステップ250は、請求項7に記載の「光条を
規定するパラメータを決定」するステップに対応してい
る。
When the glitter area to which the streak is added is selected as described above, in the next step 250, the characteristic amount of the selected glitter area and the average density (L) of the entire film image are determined.
ATD), taking into account the type of striation specified,
A parameter that defines a striation to be added to the selected glitter area is determined. The parameters include, for example, the length, thickness, and color of the striations, and a striation group including a plurality of striations (for example, the first striation group 190 and the first striation group 192 shown in FIG. 7).
And the like, the intersection angle of each striation and the like. This step 250 corresponds to the step of "determining the parameter defining the striation" according to the present invention.

【0086】なお、光条の長さについては、例えば光輝
領域の明るさが明るくなるに従って長さが長くなり、光
輝領域の大きさが大きくなるに従って長さが長くなるよ
うに定めることができる。また、印画紙に記録する記録
画像全体の明るさが明るくなるに従って(すなわちフィ
ルム画像がネガ画像の場合、フィルム画像のLATDが
高くなるに従って)、光条の長さを短くすることが好ま
しい。これにより、記録画像の見栄えが向上する。
The length of the streak can be determined, for example, such that the length increases as the brightness of the glittering region increases, and the length increases as the size of the glittering region increases. In addition, it is preferable that the length of the striations be shortened as the brightness of the entire recording image recorded on the photographic paper increases (that is, when the film image is a negative image, the LATD of the film image increases). Thereby, the appearance of the recorded image is improved.

【0087】また、光条の太さについては、例えば光輝
領域の明るさが明るくなるに従って太さが太くなり、光
輝領域の大きさが大きくなるに従って太さが太くなるよ
うに定めることができる。例えば図7(A)に示す第1
の光条群190や図7(B)に示す第1の光条群192
を構成する光条は、光輝領域からの距離の増大に従って
太さが徐々に細くなるように形状が定められている(第
1の光条群192を構成する光条は、太さが周期的に変
動しながら徐々に細くなる)ので、これらの光条群は、
光条の長さに加え、光条の太さが最大となる部分(この
場合は光輝領域と比較的近い部分)における光条の太さ
を定めることで、光条の形状が定まることになる。なお
第1の光条群192については、光輝領域の明るさや他
の特徴量に応じて、光条の太さの変動周期も併せて変化
させるようにしてもよい。
The thickness of the streak can be determined so that, for example, the brightness increases as the brightness of the glittering area increases, and the thickness increases as the size of the glittering area increases. For example, the first type shown in FIG.
7A and the first group of rays 192 shown in FIG.
Are formed such that the thickness becomes gradually thinner as the distance from the glittering region increases (the striations forming the first group of rays 192 have a periodic thickness). Gradually fluctuates while fluctuating), so these striations
In addition to the length of the streak, the shape of the streak is determined by determining the thickness of the streak at a portion where the thickness of the streak is maximum (in this case, a portion relatively close to the glittering region). . In the first streak group 192, the fluctuation cycle of the streak thickness may be changed in accordance with the brightness of the brilliant region and other characteristic amounts.

【0088】また、図7(C)に示す光条194につい
ては、光輝領域からの距離の増大に伴って太さが太く
(六角形状の高輝度領域の大きさが大きく)なるように
形状が定められているので、この光条194について
も、光条の長さに加え、光条の太さが最大となる部分
(この場合は光輝領域から最も離間している部分)にお
ける光条の太さを定めることで、光条の形状が定まるこ
とになる。
Also, the streak 194 shown in FIG. 7C is shaped such that its thickness increases (the size of the hexagonal high-brightness area increases) as the distance from the glittering area increases. Since the light striation 194 is determined, in addition to the length of the light streak, the thickness of the light streak in a portion where the thickness of the light streak is maximum (in this case, a portion farthest from the glittering region) By determining the length, the shape of the striation is determined.

【0089】また、光条の色味については、例えば記録
画像上での光輝領域の色味に一致するように定めること
ができる。また、光条上の光輝領域に近接する部分につ
いては、記録画像上での光輝領域の色味に一致するよう
に色味を定め、光条上の光輝領域から比較的離れた部分
については、光輝領域からの距離の増大に伴って色味が
周期的に変化(色相が回転)するように色味を定めても
よい。この場合、周知のレインボーフィルタを使用して
撮影することで画像に付加される光条と同様の光条を得
ることができる。上記のように、光輝領域からの距離に
応じて色味が変化する光条を表す光条データを生成する
(光条データの生成については後述)ことは、請求項9
の発明に対応している。
Further, the color of the striations can be determined, for example, so as to match the color of the glitter area on the recorded image. In addition, for the portion close to the glitter region on the striation, the color is determined so as to match the color of the glitter region on the recorded image, and for the portion relatively far from the glitter region on the striation, The tint may be determined so that the tint periodically changes (the hue rotates) as the distance from the glittering area increases. In this case, it is possible to obtain a streak similar to the streak added to the image by photographing using a known rainbow filter. As described above, generating the streak data representing the streaks whose color changes according to the distance from the glittering area (generation of the streak data will be described later).
Corresponding to the invention of the present invention.

【0090】また、光条の交差角度については、例えば
予め定められた角度を設定することができるが、これに
代えて、処理対象のフィルム画像中に人物の顔に相当す
る顔領域等が存在しているか否かを探索し、フィルム画
像中に顔領域が存在していた場合には、付加する光条が
前記顔領域と重ならないように光条の交差角度を自動的
に設定するようにしてもよい。光条を規定するパラメー
タを上記のように決定することにより、次のステップ2
52で生成される光条データが表す光条を、クロスフィ
ルタ等の特殊フィルタを使用して撮影を行った場合に撮
影画像上に現れる光条に近似させることができる。
The angle of intersection of the striations can be set, for example, to a predetermined angle. Alternatively, a face area or the like corresponding to a person's face exists in the film image to be processed. In the case where a face region is present in the film image, the intersection angle of the striation is automatically set so that the striation to be added does not overlap the face region. You may. By determining the parameters defining the striations as described above, the next step 2
The striation represented by the striation data generated in 52 can be approximated to a striation appearing on a captured image when photographing is performed using a special filter such as a cross filter.

【0091】次のステップ252では、ステップ248
で選択した光輝領域(光条を付加する光輝領域)に、オ
ペレータによって選択された種類で、かつステップ25
0で決定したパラメータによって規定される光条を各々
付加するための光条データを生成する。なお、光条デー
タはビットマップ形式のデータでもよいし(この場合の
解像度はプレスキャン画像データ及びファインスキャン
画像データの何れに合わせてもよい)、画像中の光条を
付加する位置、光条の形状、光条の輝度、色味等のデー
タから成るベクトル形式のデータであってもよい。ステ
ップ252は、請求項7に記載の「決定したパラメータ
に基づいて光条データを生成」することに対応してい
る。
In the next step 252, step 248 is executed.
In the glitter area (the glitter area to which the streak is added) selected in step 25, the type selected by the operator and step 25
The striation data for adding striations defined by the parameters determined at 0 is generated. The striation data may be bitmap data (the resolution in this case may be adjusted to either the pre-scan image data or the fine scan image data), the position where the striation is added in the image, the striation. The data may be vector-format data including data such as the shape of the light beam, the brightness of the striations, and the color. Step 252 corresponds to “generating striation data based on the determined parameters”.

【0092】ステップ254では、処理対象のフィルム
画像のプレスキャン画像データに、前記生成した光条デ
ータを合成する。なお光条データが、ファインスキャン
画像データと一致する解像度のビットマップ形式のデー
タである場合には、解像度がプレスキャン画像データと
一致するように光条データを間引いた後に合成する。ス
テップ256では、光条データを合成したプレスキャン
画像データに対し、先に説明したプレスキャン処理(図
4参照)のステップ210と同様の処理を行ってシミュ
レーション画像データを生成する。
In step 254, the generated striation data is combined with the pre-scan image data of the film image to be processed. If the striation data is bitmap data having a resolution that matches the fine scan image data, the striation data is thinned out so that the resolution matches the prescanned image data, and then combined. In step 256, simulation image data is generated by performing the same processing as in step 210 of the above-described prescan processing (see FIG. 4) on the prescan image data obtained by synthesizing the striation data.

【0093】そして、次のステップ258では、ステッ
プ256で生成したシミュレーション画像データに基づ
いて、光条データによって光条が付加されたシミュレー
ション画像をディスプレイ164に表示すると共に、表
示したシミュレーション画像の検定を要請するメッセー
ジをディスプレイ164に表示する。一例として、図8
(A)に示す処理対象のフィルム画像に対し、図8
(B)に「●」で示す4個の光輝領域が抽出・選択され
た場合、ディスプレイ164には図8(C)に示すよう
な画像が表示されることになる。ディスプレイ164に
表示された画像を目視することにより、オペレータは、
ステップ252で生成された光条データの内容が適切か
否か(生成された光条データによって付加される光条が
適切か否か)を容易に検定することができる。
Then, in the next step 258, based on the simulation image data generated in step 256, a simulation image with striations added by striation data is displayed on the display 164, and a verification of the displayed simulation image is performed. The request message is displayed on the display 164. As an example, FIG.
For the film image to be processed shown in FIG.
When four glitter areas indicated by “●” are extracted and selected in (B), an image as shown in FIG. 8C is displayed on the display 164. By viewing the image displayed on the display 164, the operator can
Whether or not the content of the striation data generated in step 252 is appropriate (whether or not the striation added by the generated striation data is appropriate) can be easily tested.

【0094】なお、ステップ258で光条が付加された
シミュレーション画像をディスプレイ164に表示する
ことは、請求項10に記載の「記録材料への画像の記録
を行う前に、光条データを合成した画像データが表す画
像を表示手段に表示」することに対応している。
Displaying the simulation image to which the striations are added in step 258 on the display 164 means that “the striation data is synthesized before the image is recorded on the recording material”. Displaying an image represented by image data on display means ".

【0095】検定を要請するメッセージがディスプレイ
164に表示されると、オペレータは、付加された光条
の数、位置、種類、形状、色味、光条の交差角度等を検
定し、付加された光条が適切か否かを判断する。そし
て、ディスプレイ164に表示されたシミュレーション
画像に付加されている光条が適切でないと判断した場合
には、上記で列挙した検定項目の少なくとも何れかに関
して、光条データの修正を指示する情報をキーボード1
66を介して入力する。例として、図8(C)において
右下隅に表示されている光条が不要であると判断した場
合、オペレータは、図8(D)に破線で示すように、前
記不要と判断した光条を含む範囲を指定し、指定した範
囲内に存在する光条の削除を指示する。
When a message requesting the verification is displayed on the display 164, the operator verifies the number, position, type, shape, color, crossing angle of the stripe, and the like of the added stripe, and adds the stripe. Determine if the striations are appropriate. If it is determined that the striations added to the simulation image displayed on the display 164 are not appropriate, information for instructing correction of striations data on at least one of the test items listed above is input to the keyboard. 1
Input via 66. As an example, when it is determined that the striation displayed in the lower right corner in FIG. 8C is unnecessary, the operator, as indicated by a broken line in FIG. Specify the range that includes, and instruct to delete striations that exist within the specified range.

【0096】オペレータから何らかの情報が入力される
と次のステップ260へ移行し、シミュレーション画像
に付加している光条が適切と判断されたか否かを前記入
力された情報に基づいて判定する。光条データの修正を
指示する情報が入力された場合には、ステップ260の
判定が否定されてステップ262へ移行し、入力された
情報に応じて光条データを修正した後にステップ254
〜258の処理を繰り返す。なお、ステップ262は請
求項10に記載の「光条データの修正」に対応してい
る。
When any information is input from the operator, the process proceeds to the next step 260, where it is determined whether or not the striation added to the simulation image is determined to be appropriate based on the input information. If the information instructing the correction of the striation data is input, the determination in step 260 is denied, and the process proceeds to step 262. After the striation data is corrected according to the input information, step 254 is performed.
To 258 are repeated. Step 262 corresponds to “correction of striation data”.

【0097】上記により、オペレータの指示に応じて修
正された光条データがプレスキャン画像データに再合成
され、シミュレーション画像データとしてディスプレイ
164に再表示される。例えば、図8(D)に破線で示
す範囲内に存在する光条の削除が指示された場合には、
ステップ262において、削除が指示された光条に対応
するデータが消去されるように光条データが修正され、
ディスプレイ164には、図8(E)に示すようにオペ
レータからの指示に応じて修正されたシミュレーション
画像が再表示されることになる。
As described above, the striation data corrected in accordance with the instruction of the operator is recombined with the prescanned image data, and is displayed again on the display 164 as simulation image data. For example, when deletion of a striation existing within the range shown by the broken line in FIG.
In step 262, the striation data is modified so that the data corresponding to the striation indicated to be deleted is deleted,
As shown in FIG. 8 (E), the simulation image corrected according to the instruction from the operator is displayed again on the display 164.

【0098】そして、ディスプレイ164に表示された
シミュレーション画像に付加されている光条が適切と判
断すると、オペレータは、光条が適正である旨を通知す
る情報を入力する。これにより、ステップ260の判定
が肯定されてステップ264へ移行し、各フィルム画像
を識別する情報(例えばコマ番号)と対応させて光条デ
ータをメモリ162に記憶し、クロスフィルタ処理を終
了する。上述したクロスフィルタ処理により、光条デー
タの生成(及び修正)が完了する。
Then, if it is determined that the striation added to the simulation image displayed on the display 164 is appropriate, the operator inputs information notifying that the striation is appropriate. As a result, the determination at step 260 is affirmed, and the process proceeds to step 264, where the striation data is stored in the memory 162 in association with the information (for example, the frame number) for identifying each film image, and the cross filter processing ends. The generation (and correction) of striation data is completed by the above-described cross filter processing.

【0099】一方、写真フィルムに対するプレスキャン
を完了すると、ラインCCDスキャナ14では、写真フ
ィルムを個々のフィルム画像毎に読み取るファインスキ
ャンを行うが、このファインスキャンに際しては、個々
のフィルム画像に対する読取条件がオートセットアップ
エンジン144からラインCCDスキャナ14に通知さ
れる。また、オートセットアップエンジン144は、個
々のフィルム画像毎に演算したファインスキャン画像デ
ータに対する画像処理の処理条件をイメージプロセッサ
部136に通知する。更に、オペレータからの指示に従
って前述のクロスフィルタ処理を行った場合、パーソナ
ルコンピュータ158は、クロスフィルタ処理によって
生成した光条データをイメージプロセッサ部136に転
送する。
On the other hand, when the pre-scan for the photographic film is completed, the line CCD scanner 14 performs a fine scan for reading the photographic film for each individual film image. The auto setup engine 144 notifies the line CCD scanner 14. Further, the auto setup engine 144 notifies the image processor 136 of image processing conditions for fine scan image data calculated for each film image. Further, when the above-described cross filter processing is performed in accordance with an instruction from the operator, the personal computer 158 transfers the striation data generated by the cross filter processing to the image processor unit 136.

【0100】続いて、ラインCCDスキャナ14におい
て、写真フィルムの個々のフィルム画像に対し、通知さ
れた読取条件で読み取り(ファインスキャン)が行わ
れ、画像処理部16に各フィルム画像のファインスキャ
ン画像データが入力された場合に画像処理部16で実行
されるファインスキャン処理について、図9のフローチ
ャートを参照して説明する。なお、このファインスキャ
ン処理は、個々のフィルム画像のファインスキャン画像
データに対して各々行われる。
Subsequently, in the line CCD scanner 14, each film image of the photographic film is read (fine scan) under the notified reading conditions, and the image processing unit 16 outputs the fine scan image data of each film image. The fine scan process executed by the image processing unit 16 when is input will be described with reference to the flowchart in FIG. Note that this fine scan processing is performed on fine scan image data of each film image.

【0101】ステップ280では、ラインCCDスキャ
ナ14から入力されたファインスキャン画像データに対
し、ラインスキャナ補正部122によって暗補正、濃度
変換、シェーディング補正、欠陥画素補正の各処理が施
される。ラインスキャナ補正部122から出力されたフ
ァイン画像スキャンデータは、セレクタ132を介して
イメージプロセッサ部136に入力される。次のステッ
プ282では、イメージプロセッサ部136において、
プレスキャン処理(図4参照)のステップ204と同様
にして、ファインスキャン画像データの規格化を行う。
In step 280, the fine scan image data input from the line CCD scanner 14 is subjected to dark correction, density conversion, shading correction, and defective pixel correction by the line scanner correction unit 122. The fine image scan data output from the line scanner correction unit 122 is input to the image processor unit 136 via the selector 132. In the next step 282, in the image processor unit 136,
Fine scan image data is normalized in the same manner as in step 204 of the prescan process (see FIG. 4).

【0102】ステップ284では、規格化を行ったファ
インスキャン画像データに対し、オートセットアップエ
ンジン144から通知された処理条件で、ハイパートー
ン処理やハイパーシャープネス処理等の画像処理を行
う。次のステップ286では、現在処理を行っているフ
ァインスキャン画像データに付加する光条データが、パ
ーソナルコンピュータ158から転送されているか否か
判定する。
In step 284, image processing such as hypertone processing and hypersharpness processing is performed on the standardized fine scan image data under the processing conditions notified from the auto setup engine 144. In the next step 286, it is determined whether or not the striation data to be added to the currently processed fine scan image data has been transferred from the personal computer 158.

【0103】ステップ286の判定が否定された場合に
は、現在処理を行っているファインスキャン画像データ
に対応するフィルム画像は、プレスキャン処理(図4)
において、クロスフィルタ処理の実行が指示されなかっ
たフィルム画像であるので、ステップ290へ移行し
て、ファインスキャン画像データの濃度範囲を、印画紙
上で画像として再現される範囲に応じて変換する階調変
換、及びファインスキャン画像データが表す画像の三色
の濃度バランスを、印画紙の露光量−発色濃度特性の
R、G、B毎のばらつきに応じて修正する色変換を行っ
てファインスキャン処理を終了する。
If the determination in step 286 is negative, the film image corresponding to the fine scan image data currently being processed is subjected to the prescan processing (FIG. 4).
, Since the execution of the cross filter process is not instructed, the process proceeds to step 290, where the density range of the fine scan image data is converted according to the range reproduced as an image on photographic paper. Conversion and color conversion for correcting the density balance of the three colors of the image represented by the fine scan image data in accordance with the R, G, and B variations in the exposure-color density characteristics of the photographic paper, thereby performing fine scan processing. finish.

【0104】一方、ステップ286の判定が肯定された
場合にはステップ288へ移行し、パーソナルコンピュ
ータ158から転送された光条データを、クロスフィル
タ処理(図6)のステップ256と同様にして、ファイ
ンスキャン画像データに合成する(解像度が不一致の場
合は、補間等の解像度変換を行った後に合成する)。そ
して、次のステップ290では、光条データが合成され
たファインスキャン画像データに対し、前述の階調変換
及び色変換が行われる。なお、上記のようにステップ2
88の処理を行った後にステップ290の処理を行うこ
とは、請求項11に記載の「光条データを画像データに
合成した後に、光条データを合成した画像データに対
し、記録材料への画像の記録に用いるための階調変換を
行う」ことに対応している。
On the other hand, if the determination in step 286 is affirmative, the flow shifts to step 288, where the striation data transferred from the personal computer 158 is finely processed in the same manner as in step 256 of the cross filter processing (FIG. 6). Combine with the scanned image data (if the resolutions do not match, combine after performing resolution conversion such as interpolation). Then, in the next step 290, the above-described gradation conversion and color conversion are performed on the fine scan image data in which the striation data is synthesized. Note that, as described above, step 2
Performing the processing in step 290 after performing the processing in step 88 may include the step of “combining the striation data with the image data and then combining the striation data with the image data on the recording material. To perform gradation conversion for use in recording. "

【0105】ファインスキャン処理を経たデータは、記
録用画像データとしてレーザプリンタ部18に転送さ
れ、印画紙への画像の露光記録に用いられる。従って、
ファインスキャン処理において光条データが合成された
記録用画像データについては、クロスフィルタ等の特殊
フィルタを使用して撮影した画像と同様の画調の画像、
より詳しくはオペレータが適切と判断した光条が付加さ
れた画像として印画紙に記録されることになる。
The data that has been subjected to the fine scan processing is transferred to the laser printer section 18 as image data for recording, and used for exposure recording of an image on photographic paper. Therefore,
For recording image data in which striation data is synthesized in the fine scan processing, an image having the same image tone as an image photographed using a special filter such as a cross filter,
More specifically, the image is recorded on the photographic paper as an image to which a striation judged appropriate by the operator is added.

【0106】前述のように、光条データが合成された記
録用画像データは、ファインスキャン画像データに光条
データを合成した後に階調変換を行ったデータであるの
で、ファインスキャン画像データ及び光条データに対し
て同一の階調変換条件で同時に階調変換が行われること
になるので、記録画像に付加された光条が不自然に見え
ることを防止することができる。
As described above, the recording image data obtained by synthesizing the striation data is data obtained by synthesizing the striation data with the fine scan image data and then performing gradation conversion. Since gradation conversion is performed simultaneously on the stripe data under the same gradation conversion condition, it is possible to prevent the striations added to the recorded image from looking unnatural.

【0107】次にクロスフィルタ処理の他の例につい
て、図10のフローチャートを参照して説明する。ステ
ップ300では、光輝領域の手動設定を行うか否か判定
する。この判定が否定された場合にはステップ302で
光輝領域抽出処理(図6のフローチャートのステップ2
30〜ステップ248に相当する処理)を行う。次のス
テップ304では光輝領域抽出処理によって抽出された
光輝領域に対して光条を手動で設定するか否か判定す
る。この判定も否定された場合にはステップ306で光
条自動設定・検定処理(図6のフローチャートのステッ
プ250〜ステップ264に相当する処理)を行ってク
ロスフィルタ処理を終了する。
Next, another example of the cross filter processing will be described with reference to the flowchart of FIG. In step 300, it is determined whether or not the glitter area is manually set. If this determination is denied, at step 302, the brilliant region extraction process (step 2 in the flowchart of FIG. 6)
30 to step 248). In the next step 304, it is determined whether or not a streak is manually set for the glitter area extracted by the glitter area extraction processing. If this determination is also denied, in step 306, the automatic striation setting / testing process (the process corresponding to steps 250 to 264 in the flowchart of FIG. 6) is performed, and the cross filter process ends.

【0108】一方、光輝領域を手動で設定する場合に
は、ステップ300の判定が肯定されてステップ310
へ移行し、処理対象のフィルム画像のプレスキャン画像
データからシミュレーション画像データを生成し、シミ
ュレーション画像をディスプレイ164に表示する。次
のステップ312では、光輝領域を生成すべき位置を設
定するようオペレータに要請するメッセージをディスプ
レイ164に表示する。ステップ314では、光輝領域
を生成すべき位置がオペレータによって指定されたか否
か判定し、判定が肯定される迄待機する。
On the other hand, when the luminous area is set manually, the determination in step 300 is affirmed, and step 310 is executed.
Then, the simulation image data is generated from the pre-scan image data of the film image to be processed, and the simulation image is displayed on the display 164. In the next step 312, a message is displayed on the display 164 requesting the operator to set the position where the glitter area is to be generated. In step 314, it is determined whether or not the position where the glittering region is to be generated has been designated by the operator, and the process waits until the determination is affirmed.

【0109】光輝領域の生成位置の設定を要請するメッ
セージが表示されると、オペレータはディスプレイ16
4に表示されているシミュレーション画像を参照し、光
輝領域を生成すべき位置(光条を付加すべき位置)を判
断し、マウス等のポインティングデバイスを操作して判
断した位置を設定する(請求項4に記載の「光輝領域を
生成すべき位置」の設定)。なお、光輝領域を生成すべ
き位置はユーザからの指示に応じてオペレータが設定し
てもよいし、オペレータ自身の判断に基づいて設定して
もよい。
When a message requesting the setting of the luminous region generation position is displayed, the operator operates the display 16.
4, a position at which a glitter area is to be generated (a position at which a streak is to be added) is determined, and a position determined by operating a pointing device such as a mouse is set. Setting of “Position where brilliant region is to be generated” described in 4). The position where the glittering region is to be generated may be set by the operator according to an instruction from the user, or may be set based on the operator's own judgment.

【0110】光輝領域を生成すべき位置が設定される
と、ステップ314の判定が肯定されてステップ316
へ移行し、設定された位置をメモリ162に記憶する。
次のステップ318では、生成すべき光輝領域の大きさ
・形状・明るさ・色味等の特徴量を規定する光輝領域パ
ラメータを手動設定するか否か判定する。判定が否定さ
れた場合には、予め設定・記憶されている光輝領域パラ
メータのデフォルトを取り込み、ステップ324へ移行
する。
When the position where the glittering region is to be generated is set, the determination in step 314 is affirmed, and step 316 is performed.
Then, the set position is stored in the memory 162.
In the next step 318, it is determined whether or not to manually set a glitter area parameter that defines a feature amount such as the size, shape, brightness, and color of the glitter area to be generated. If the determination is negative, the default of the glitter area parameter set and stored in advance is fetched, and the routine proceeds to step 324.

【0111】またステップ318の判定が肯定された場
合にはステップ320へ移行し、光輝領域パラメータを
設定するようオペレータに要請するメッセージをディス
プレイ164に表示する。ステップ322では、光輝領
域パラメータがオペレータによって設定されたか否か判
定し、判定が肯定される迄待機する。
If the determination in step 318 is affirmative, the process proceeds to step 320, where a message requesting the operator to set the glittering area parameter is displayed on the display 164. In step 322, it is determined whether or not the glitter area parameter has been set by the operator, and the process waits until the determination is affirmed.

【0112】光輝領域パラメータの設定を要請するメッ
セージが表示されると、オペレータはキーボード166
等を操作し、先に指定した位置に生成すべき光輝領域を
規定する光輝領域パラメータを設定する(請求項5に記
載の「生成すべき光輝領域を規定するパラメータ」の設
定)。なお、光輝領域パラメータ(どのような光輝領域
を生成するか)についても、ユーザからの指示に応じて
オペレータが設定するようにしてもよいし、オペレータ
自身の判断に基づいて設定してもよい。光輝領域パラメ
ータが設定されると、ステップ322の判定が肯定され
てステップ324へ移行し、設定された(又はステップ
318で取り込んだ)光輝領域パラメータをメモリ16
2に記憶する。
When a message requesting the setting of the glitter area parameter is displayed, the operator operates the keyboard 166.
And the like to set a glitter area parameter that defines a glitter area to be generated at the previously specified position (setting of “parameter defining a glitter area to be generated” according to claim 5). The glitter area parameter (what kind of glitter area is generated) may be set by the operator according to an instruction from the user, or may be set based on the operator's own judgment. When the luminous area parameter is set, the determination in step 322 is affirmed, and the process proceeds to step 324, where the set luminous area parameter (or fetched in step 318) is stored in the memory 16
Stored in 2.

【0113】ステップ326では、上記で光輝領域パラ
メータを設定した光輝領域(処理対象の光輝領域)に対
し、付加すべき光条の設定を手動で行うか否か判定す
る。判定が否定された場合にはステップ328へ移行
し、設定した光輝領域パラメータに基づいて、図6のフ
ローチャートのステップ250と同様にして、処理対象
の光輝領域に付加する光条を規定するパラメータを自動
的に設定した後にステップ334へ移行する。
In step 326, it is determined whether or not to manually set the striation to be added to the glitter area (the glitter area to be processed) for which the glitter area parameter has been set. If the determination is negative, the process proceeds to step 328, and based on the set glitter area parameters, the parameter defining the striation to be added to the glitter area to be processed is set in the same manner as in step 250 of the flowchart of FIG. After the automatic setting, the process proceeds to step 334.

【0114】また、ステップ326の判定が肯定された
場合にはステップ330へ移行し、処理対象の光輝領域
に付加する光条を規定するパラメータ(光条パラメー
タ)を設定するようオペレータに要請するメッセージを
ディスプレイ164に表示する。ステップ332では、
光条パラメータがオペレータによって設定されたか否か
判定し、判定が肯定される迄待機する。
If the determination in step 326 is affirmative, the process moves to step 330, and a message requesting the operator to set a parameter (strip parameter) defining a streak to be added to the illuminated area to be processed. Is displayed on the display 164. In step 332,
It is determined whether or not the striation parameter has been set by the operator, and the process waits until the determination is affirmed.

【0115】光条パラメータの設定を要請するメッセー
ジが表示されると、オペレータはキーボード166等を
操作し、処理対象の光輝領域に付加する光条を規定する
光条パラメータを設定する(請求項8に記載の「合成す
べき光条を規定するパラメータ」の設定)。なお、光条
パラメータ(どのような光条を付加するか)について
も、ユーザからの指示に応じてオペレータが設定するよ
うにしてもよいし、オペレータ自身の判断に基づいて設
定してもよい。
When a message requesting the setting of the streak parameter is displayed, the operator operates the keyboard 166 or the like to set the streak parameter defining the streak to be added to the brilliant area to be processed. Of “parameters defining striations to be synthesized” described in (1). The striation parameters (what striations are added) may be set by the operator according to an instruction from the user, or may be set based on the operator's own judgment.

【0116】光条パラメータが設定されると、ステップ
332の判定が肯定されてステップ334へ移行し、処
理対象の画像中のオペレータによって設定された位置
に、光輝領域パラメータに応じた大きさ・形状・明るさ
・色味の光輝領域を生成すると共に、該光輝領域に光条
パラメータに応じた長さ・太さ・色味・本数の光条を付
加するための光条データを生成する。
When the striation parameters are set, the judgment in step 332 is affirmed, and the flow shifts to step 334, where the size and shape corresponding to the glitter area parameter are set at the position set by the operator in the image to be processed. A luminous area having brightness and color is generated, and luminous data for adding a length, thickness, color, and number of luminous rays according to the luminous parameter to the luminous area is generated.

【0117】そして次のステップ336では、処理対象
のフィルム画像のプレスキャン画像データに、前記生成
した光条データを合成し、光条データを合成したプレス
キャン画像データからシミュレーション画像データを生
成し、生成したシミュレーション画像データを用いて、
光条データによって光輝領域及び光条が付加されたシミ
ュレーション画像をディスプレイ164に表示すると共
に、表示したシミュレーション画像の検定を要請するメ
ッセージをディスプレイ164に表示する。
In the next step 336, the generated striation data is synthesized with the pre-scan image data of the film image to be processed, and simulation image data is generated from the pre-scan image data obtained by synthesizing the striation data. Using the generated simulation image data,
A simulation image to which a bright region and a streak are added according to the streak data is displayed on the display 164, and a message requesting verification of the displayed simulation image is displayed on the display 164.

【0118】光輝領域及び光条が付加されたシミュレー
ション画像が表示されると、オペレータは、付加された
光輝領域の位置・大きさ・形状・明るさ・色味、付加さ
れた光条の長さ・太さ・色味・本数が適正か否かを検定
し、キーボード166等を操作して検定結果を入力す
る。次のステップ338では、入力された情報に基づい
て検定結果が「適正」か否かを判定する。
When the simulation image to which the glitter region and the streak are added is displayed, the operator can determine the position, size, shape, brightness, and color of the added glitter region, and the length of the added streak. -It is verified whether the thickness, color, and number are appropriate, and the verification result is input by operating the keyboard 166 or the like. In the next step 338, it is determined whether or not the test result is “proper” based on the input information.

【0119】光条データの修正を指示する情報が入力さ
れた場合には、ステップ338の判定が否定されてステ
ップ340へ移行し、入力された情報に応じて光条デー
タを修正すると共に、記憶している設定位置(光輝領域
位置)、光輝領域パラメータ及び光条パラメータを必要
に応じて修正し、ステップ336に戻る。従って、検定
結果が「適正」となる迄ステップ336〜ステップ34
0が繰り返される。
If the information instructing the correction of the striation data has been input, the judgment in step 338 is denied and the routine proceeds to step 340, in which the striation data is corrected according to the input information and stored. The set position (bright area position), the brilliant area parameter, and the streak parameter are corrected as necessary, and the process returns to step 336. Therefore, steps 336 to 34 until the test result becomes “appropriate”.
0 is repeated.

【0120】検定結果が「適正」とされると、次のステ
ップ342で処理対象の画像に光条(光輝領域)を更に
追加するか否か判定する。光条の追加がオペレータによ
って指示されると、ステップ342の判定が肯定されて
ステップ310へ戻り、ステップ342の判定が否定さ
れる迄、ステップ310〜ステップ342が繰り返され
る。そして、ステップ342の判定が否定されると、光
条データをコマ番号と対応させて記憶し、クロスフィル
タ処理を終了する。
If the test result is determined to be “appropriate”, it is determined in the next step 342 whether or not a streak (bright area) is further added to the image to be processed. When the addition of the striations is instructed by the operator, the determination in step 342 is affirmed and the process returns to step 310, and steps 310 to 342 are repeated until the determination in step 342 is denied. If the determination in step 342 is negative, the striation data is stored in association with the frame number, and the cross filter processing ends.

【0121】上述した処理により、処理対象の画像中の
任意の位置に(画像中の光輝領域の有無や画像中の光輝
領域の位置と無関係に)、任意の大きさ・形状・明るさ
・色味の光輝領域を生成し、任意の長さ・太さ・色味・
本数の光条を付加することが可能となる。
By the above-described processing, an arbitrary size, shape, brightness, and color can be set at an arbitrary position in the image to be processed (irrespective of the presence or absence of the glittering area in the image or the position of the glittering area in the image). Generates a brilliant region of taste, and can be set to any length, thickness, color,
It is possible to add the number of striations.

【0122】また、光輝領域抽出処理(ステップ30
2)によって抽出された光輝領域に対して光条を手動で
設定する場合には、ステップ304の判定が肯定されて
ステップ350へ移行し、ステップ310と同様にして
ディスプレイ164にシミュレーション画像を表示する
と共に、光輝領域抽出処理によって抽出された光輝領域
の中から処理対象とする光輝領域を選択し、選択した処
理対象の光輝領域をシミュレーション画像上で明示する
(例えば枠で囲む等)。
Further, the bright region extraction processing (step 30)
When the striations are manually set for the bright region extracted in 2), the determination in step 304 is affirmative, and the process proceeds to step 350, where a simulation image is displayed on the display 164 in the same manner as in step 310. At the same time, a glitter area to be processed is selected from the glitter areas extracted by the glitter area extraction processing, and the selected glitter area to be processed is specified on the simulation image (for example, surrounded by a frame).

【0123】次のステップ352では、明示した処理対
象の光輝領域に対して光条パラメータ手動設定・検定処
理(ステップ330〜ステップ340に相当する処理)
が行われる。この処理も請求項8の発明に対応してい
る。これにより、光輝領域抽出処理によって抽出された
光輝領域に対して任意の長さ・太さ・色味・本数の光条
を付加することが可能となる。
In the next step 352, a striation parameter manual setting / verification process (a process corresponding to steps 330 to 340) is performed on the specified bright region to be processed.
Is performed. This processing also corresponds to the eighth aspect of the present invention. This makes it possible to add striations of an arbitrary length, thickness, color, and number to the glitter area extracted by the glitter area extraction processing.

【0124】次のステップ354では、処理が終了した
か否か、すなわち光輝領域抽出処理によって抽出された
全ての光輝領域に対して上記処理を行ったか否か判定す
る。判定が否定された場合にはステップ354に戻り、
ステップ350〜ステップ354を繰り返す。そして、
ステップ354の判定が肯定されると、クロスフィルタ
処理を終了する。
In the next step 354, it is determined whether or not the processing has been completed, that is, whether or not the above processing has been performed on all the glitter areas extracted by the glitter area extraction processing. If the determination is negative, the process returns to step 354,
Steps 350 to 354 are repeated. And
If the determination in step 354 is affirmative, the cross filter processing ends.

【0125】上記のクロスフィルタ処理によって生成さ
れた光条データもファインスキャン処理(図9)によっ
てファインスキャン画像データに合成される。これによ
り、先にも説明したように記録画像に光条が付加される
(クロスフィルタ処理で光輝領域を手動設定した場合に
は光輝領域も付加される)。
The striation data generated by the above-described cross filter processing is also synthesized into fine scan image data by the fine scan processing (FIG. 9). As a result, as described above, a streak is added to the recorded image (when the glitter area is manually set by the cross filter processing, the glitter area is also added).

【0126】なお、図8(A)及び(B)には4本の光
条から成る光条群を示したが、光条群を構成する光条の
本数はこれに限定されるものではなく、光輝領域から3
本以下、或いは5本以上の光条が延びている光条群を表
す光条データを用いてもよいことは言うまでもない。
Although FIGS. 8A and 8B show a group of striations composed of four striations, the number of striations forming the group of striations is not limited to this. , 3 from the glittering area
It goes without saying that striation data representing a striation group in which less than or more than five striations extend may be used.

【0127】また、上記では光条データを合成し階調変
換等の処理を行ったファインスキャン画像データを、印
画紙への画像の記録に用いる場合を説明したが、これに
限定されるものではなく、前記ファインスキャン画像デ
ータをフロッピーディスク、ハードディスク、光磁気デ
ィスクやメモリカード等の記憶媒体に記憶するようにし
てもよい。
In the above description, the case where fine scan image data obtained by synthesizing striation data and performing gradation conversion and the like is used for recording an image on photographic paper has been described. However, the present invention is not limited to this. Instead, the fine scan image data may be stored in a storage medium such as a floppy disk, hard disk, magneto-optical disk, or memory card.

【0128】また、上記ではオペレータから指定された
画像に対してクロスフィルタ処理を行って光条データを
生成し、記録画像に光条を付加するようにしていたが、
本発明はこれに限定されるものではなく、光条を付加す
る画像を指定する情報が写真フィルム又はカートリッジ
に磁気的、又は光学的、又は電気的に記録され、該情報
を読み取ることにより、光条を付加することが指定され
た画像を判断するようにしてもよい。
In the above description, striation data is generated by performing cross-filter processing on an image designated by the operator, and striations are added to the recorded image.
The present invention is not limited to this. Information specifying an image to which a streak is added is magnetically, optically, or electrically recorded on a photographic film or a cartridge, and by reading the information, An image specified to add a line may be determined.

【0129】更に、図6ではオペレータによって光輝領
域の探索範囲と光輝領域の個数が独立に指定される態様
を説明したが、これに限定されるものではなく、オペレ
ータによって探索範囲が複数指定された場合に、各探索
範囲毎に光輝領域の個数を指定することも可能としても
よい。また、光条を付加する光輝領域そのものを指定す
ることも可能としてもよい。
Further, in FIG. 6, the mode in which the search range of the glittering area and the number of the glittering areas are specified independently by the operator has been described. However, the present invention is not limited to this. A plurality of search ranges are specified by the operator. In this case, the number of glittering regions may be specified for each search range. Further, it may be possible to specify the glittering region itself to which the streak is added.

【0130】また、図6では処理対象画像中の複数の光
輝領域に対し、種類が同一の光条を各々付加する場合を
説明したが、これに限定されるものではなく、例えば光
条を付加する光輝領域として選択した複数の光輝領域に
対し、付加する光条の種類を各々選択させ、画像中の複
数の光輝領域に対して互いに種類が異なる光条を付加す
ることを可能としてもよい。
In FIG. 6, a case has been described in which striations of the same type are added to a plurality of glitter regions in the image to be processed. However, the present invention is not limited to this. For example, striations may be added. The type of striation to be added may be selected for each of the plurality of glittering regions selected as the glittering regions to be added, and different types of striations may be added to the plurality of glittering regions in the image.

【0131】また、図6ではオペレータによって指定さ
れた光条の種類、及びステップ250で決定した各種の
パラメータに基づいて光条データを生成する場合を例に
説明したが、本発明はこれに限定されるものではなく、
光条の種類やパラメータの組み合わせに対応して多数種
類の光条データを生成し、ハードディスク168等の記
憶媒体に予め記憶しておき、多数種類の光条データの中
から、指定された光条の種類や前記各種パラメータに基
づいて使用する光条データを選択するようにしてもよ
い。
FIG. 6 shows an example in which striation data is generated based on the type of striation specified by the operator and various parameters determined in step 250, but the present invention is not limited to this. Is not
Many types of striation data are generated in accordance with the type of striations and combinations of parameters, and are previously stored in a storage medium such as a hard disk 168, and a specified striation is selected from the various types of striation data. The striation data to be used may be selected based on the type of the light beam and the various parameters.

【0132】更に、上記では本発明に係る画像処理方法
に係る処理をディジタルラボシステムで行う場合を説明
したが、これに限定されるものではなく、前記処理を行
う機能をディジタルカメラ、或いはパーソナルコンピュ
ータ等の情報処理機器に搭載し、ユーザ自身が各種の指
定を行うことで本発明に係る画像処理方法に係る処理を
実行させるようにすることも可能である。
Further, the case where the processing according to the image processing method according to the present invention is performed in the digital lab system has been described above. However, the present invention is not limited to this. The function of performing the processing is provided by a digital camera or a personal computer. It is also possible to mount the information processing apparatus according to the present invention or the like, and execute the processing according to the image processing method according to the present invention by performing various designations by the user himself.

【0133】以上、本発明の実施形態について説明した
が、上記の実施形態は、特許請求の範囲に記載した事項
の実施態様以外に、以下に記載した事項の実施態様を含
んでいる。
The embodiments of the present invention have been described above. However, the above-described embodiments include the embodiments described below in addition to the embodiments described in the claims.

【0134】(1)画像データに基づいて画像中の光輝
領域を抽出する抽出手段と、前記抽出手段によって抽出
された光輝領域に基づいて、光輝領域から延びる光条を
表す光条データを前記画像データに合成する合成手段
と、を含む画像処理装置。
(1) Extraction means for extracting a glittering area in an image based on image data, and based on the glittering area extracted by the extracting means, striation data representing a streak extending from the glittering area in the image. An image processing apparatus including: a synthesizing unit that synthesizes data.

【0135】[0135]

【発明の効果】以上説明したように請求項1記載の発明
は、画像データに基づいて画像中の光輝領域を抽出し、
抽出した光輝領域に基づいて、光輝領域から延びる光条
を表す光条データを画像データに合成するようにしたの
で、特殊フィルタを使用して意図的に画調を変えた画像
と同等の画像を、特殊フィルタを使用することなく容易
に得ることができる、という優れた効果を有する。
As described above, according to the first aspect of the present invention, a bright area in an image is extracted based on image data,
Based on the extracted brilliant region, streak data representing the vein extending from the brilliant region is combined with the image data, so an image equivalent to the image whose image tone is intentionally changed using a special filter is created. It can be easily obtained without using a special filter.

【0136】請求項3記載の発明は、請求項1の発明に
おいて、光条を付加する光輝領域を光輝領域の形状に基
づいて選択するようにしたので、上記効果に加え、画像
データが表す画像に対し、不自然さが感じられないよう
に光条を付加することができる、という効果を有する。
According to a third aspect of the present invention, in the first aspect of the present invention, the glitter area to which the streak is added is selected based on the shape of the glitter area. On the other hand, there is an effect that striations can be added so that unnaturalness is not felt.

【0137】請求項4記載の発明は、画像中の光輝領域
を生成すべき位置が設定され、設定された位置に光輝領
域が生ずるように画像データを変更し、生成した光輝領
域に基づいて、光輝領域から延びる光条を表す光条デー
タを画像データに合成するようにしたので、特殊フィル
タを使用して意図的に画調を変えた画像と同等の画像
を、特殊フィルタを使用することなく容易に得ることが
できる、という優れた効果を有する。
According to a fourth aspect of the present invention, a position at which a glitter area in an image is to be generated is set, image data is changed so that a glitter area is generated at the set position, and based on the generated glitter area, Since the streak data representing the streaks extending from the brilliant area is combined with the image data, an image equivalent to an image whose image tone is intentionally changed using a special filter can be used without using a special filter. It has an excellent effect that it can be easily obtained.

【0138】請求項5記載の発明は、請求項4の発明に
おいて、生成すべき光輝領域の明るさ、大きさ、形状及
び色味の少なくとも1つが設定され、設定されたパラメ
ータに応じた光輝領域が生ずるように画像データの変更
を行うので、上記効果に加え、画像中に生成される光輝
領域の明るさ、大きさ、形状、色味を任意に変更するこ
とが可能となる、という効果を有する。
According to a fifth aspect of the present invention, in the fourth aspect of the invention, at least one of brightness, size, shape, and color of the glitter area to be generated is set, and the glitter area according to the set parameters is set. Since the image data is changed so as to generate the effect, in addition to the above-described effects, it is possible to arbitrarily change the brightness, size, shape, and color of the glittering area generated in the image. Have.

【0139】請求項7記載の発明は、請求項1又は請求
項4の発明において、光輝領域の明るさ、大きさ、及び
色味の少なくとも1つの特徴量に基づいて光条を規定す
るパラメータを決定し、決定したパラメータに基づいて
光条データを生成又は選択ようにしたので、上記効果に
加え、画像データに光条データを合成することで画像中
に付加した光条が、画像目視時に違和感を与えることを
防止できる、という効果を有する。
According to a seventh aspect of the present invention, in the first or the fourth aspect of the present invention, the parameter defining the striation based on at least one characteristic amount of the brightness, the size, and the color of the glittering region is set. Since the determined striation data is generated or selected based on the determined parameters, in addition to the above-described effects, the striation added to the image by synthesizing the striation data with the image data causes an uncomfortable feeling when viewing the image. Has an effect that it can be prevented from being given.

【0140】請求項8記載の発明は、請求項1又は請求
項4の発明において、合成すべき光条を規定するパラメ
ータが設定され、設定されたパラメータに基づいて光条
データを生成又は選択するようにしたので、上記効果に
加え、合成すべき光条の長さ、太さ、色味等を任意に設
定することができる、という効果を有する。
According to an eighth aspect of the present invention, in the first or the fourth aspect of the present invention, a parameter defining a striation to be combined is set, and striation data is generated or selected based on the set parameter. With this configuration, in addition to the above-described effects, there is an effect that the length, thickness, color, and the like of the striations to be combined can be arbitrarily set.

【0141】請求項9記載の発明は、請求項1又は請求
項4の発明において、光条の太さ及び色味の少なくとも
一方を、光輝領域からの距離によって変化させるように
したので、上記効果に加え、様々な特殊フィルタを使用
することで撮影画像上に付加される様々な種類の光条を
再現することができる、という効果を有する。
According to a ninth aspect of the present invention, in the first or fourth aspect, at least one of the thickness and the color of the striation is changed according to the distance from the glittering region. In addition to the above, there is an effect that various types of striations added to a captured image can be reproduced by using various special filters.

【0142】請求項10記載の発明は、請求項1又は請
求項4の発明において、記録材料への画像の記録等を行
う前に、画像データ又は光条データを合成した画像デー
タが表す画像を表示し、表示した画像に基づいて入力さ
れた指示に応じて、光条データによって光条を付加する
光輝領域を選択又は設定し、光条データを生成又は選択
又は修正するようにしたので、上記効果に加え、抽出し
た光輝領域のうちの任意の光輝領域に光条を付加するこ
とが可能となり、所望の光輝領域に光条が付加された画
像を得ることができる、という効果を有する。
According to a tenth aspect of the present invention, in the first or the fourth aspect of the present invention, the image represented by the image data or the image data obtained by synthesizing the striation data is recorded before the image is recorded on the recording material. Display and select or set a glitter area to which a streak is added by streak data in accordance with an instruction input based on the displayed image, so that the streak data is generated or selected or modified. In addition to the effect, it is possible to add a streak to an arbitrary glitter area of the extracted glitter area, and it is possible to obtain an image in which a stripe is added to a desired glitter area.

【0143】請求項11記載の発明は、請求項1又は請
求項4の発明において、光条データを画像データに合成
した後に、記録材料への画像の記録に用いるための階調
変換を行うようにしたので、上記効果に加え、光条デー
タが表す光条が不自然に見えることを防止することがで
きる、という効果を有する。
According to an eleventh aspect of the present invention, in the first or the fourth aspect of the present invention, after the striation data is combined with the image data, gradation conversion for use in recording an image on a recording material is performed. Therefore, in addition to the above-described effects, the present invention has an effect that the streaks represented by the streak data can be prevented from looking unnatural.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本実施形態に係るディジタルラボシステムの
概略ブロック図である。
FIG. 1 is a schematic block diagram of a digital laboratory system according to an embodiment.

【図2】 ディジタルラボシステムの外観図である。FIG. 2 is an external view of a digital laboratory system.

【図3】 画像処理部の概略構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a schematic configuration of an image processing unit.

【図4】 画像処理部で実行されるプレスキャン処理の
内容を示すフローチャートである。
FIG. 4 is a flowchart illustrating the contents of a pre-scan process performed by an image processing unit.

【図5】 ディスプレイへのシミュレーション画像の表
示例を示すイメージ図である。
FIG. 5 is an image diagram showing a display example of a simulation image on a display.

【図6】 画像処理部のパーソナルコンピュータで実行
されるクロスフィルタ処理の内容を示すフローチャート
である。
FIG. 6 is a flowchart showing the contents of a cross filter process executed by a personal computer of an image processing unit.

【図7】 (A)乃至(C)は、画像データに光条デー
タを合成することによって画像に付加される光条の一例
を各々示すイメージ図である。
FIGS. 7A to 7C are image diagrams each showing an example of striations added to an image by synthesizing striation data with image data; FIGS.

【図8】 クロスフィルタ処理の手順を説明するため
の、(A)は処理対象画像の一例、(B)は光輝領域抽
出結果の一例、(C)は光条を付加した検定用画像の一
例、(D)は光条を付加した検定用画像に対する指示の
一例、(E)はプリント画像の一例を各々示すイメージ
図である。
8A is an example of an image to be processed, FIG. 8B is an example of a brilliant area extraction result, and FIG. 8C is an example of a test image to which a streak is added, for explaining the procedure of cross filter processing. (D) is an image figure which shows an example of the instruction | indication with respect to the image for a test to which the striation was added, (E) is an image figure which shows an example of a print image, respectively.

【図9】 画像処理部で実行されるファインスキャン処
理の内容を示すフローチャートである。
FIG. 9 is a flowchart illustrating the content of a fine scan process executed by the image processing unit.

【図10】 クロスフィルタ処理の他の例を示すフロー
チャートである。
FIG. 10 is a flowchart illustrating another example of the cross filter processing.

【符号の説明】[Explanation of symbols]

10 ディジタルラボシステム 16 画像処理部 136 イメージプロセッサ部 158 パーソナルコンピュータ 164 ディスプレイ 166 キーボード 10 Digital laboratory system 16 Image processing unit 136 Image processor unit 158 Personal computer 164 Display 166 Keyboard

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 画像データに基づいて画像中の光輝領域
を抽出し、 抽出した光輝領域に基づいて、光輝領域から延びる光条
を表す光条データを前記画像データに合成する画像処理
方法。
1. An image processing method for extracting a glitter area in an image based on image data, and combining, based on the extracted glitter area, stripe data representing a stripe extending from the glitter area with the image data.
【請求項2】 前記画像データに基づいて画像中のハイ
ライト点を抽出し、ハイライト点が集中している領域を
画像中の光輝領域として抽出することを特徴とする請求
項1記載の画像処理方法。
2. The image according to claim 1, wherein a highlight point in the image is extracted based on the image data, and an area where the highlight points are concentrated is extracted as a bright area in the image. Processing method.
【請求項3】 前記抽出した光輝領域の形状に基づい
て、前記抽出した光輝領域の中から、前記光条データに
よって光条を付加する光輝領域を選択することを特徴と
する請求項1記載の画像処理方法。
3. The glitter area to which a streak is added according to the striation data is selected from the extracted glitter areas based on the shape of the extracted glitter area. Image processing method.
【請求項4】 画像中の光輝領域を生成すべき位置が設
定され、 前記設定された位置に光輝領域が生ずるように画像デー
タを変更し、 生成した光輝領域に基づいて、光輝領域から延びる光条
を表す光条データを前記画像データに合成する画像処理
方法。
4. A position where a glitter area in an image is to be generated, image data is changed so that a glitter area is generated at the set position, and light extending from the glitter area is generated based on the generated glitter area. An image processing method for combining striation data representing a striation with the image data.
【請求項5】 生成すべき光輝領域を規定するパラメー
タとして光輝領域の明るさ、大きさ、形状及び色味の少
なくとも1つが設定され、設定されたパラメータに応じ
た光輝領域が生ずるように前記画像データの変更を行う
ことを特徴とする請求項4記載の画像処理方法。
5. A method according to claim 1, wherein at least one of brightness, size, shape, and color of the glitter area is set as a parameter defining the glitter area to be generated, and the glitter area is generated according to the set parameters. 5. The image processing method according to claim 4, wherein the data is changed.
【請求項6】 前記光条データとして、光輝領域から放
射状に延びる複数本の光条を表す第1の光条データ、又
は光輝領域から延び多角形状の高輝度領域を含んだ光条
を表す第2の光条データを用いることを特徴とする請求
項1又は請求項4記載の画像処理方法。
6. The first striation data representing a plurality of striations extending radially from a brilliant region, or the first streak data representing a striation extending from a brilliant region and including a polygonal high-luminance region, as the striation data. The image processing method according to claim 1, wherein the image data is used.
【請求項7】 前記抽出又は生成した光輝領域の明る
さ、大きさ、及び色味の少なくとも1つの特徴量に基づ
いて、合成すべき光条を規定するパラメータを決定し、
決定したパラメータに基づいて前記光条データを生成又
は選択することを特徴とする請求項1又は請求項4記載
の画像処理方法。
7. A parameter defining a striation to be synthesized is determined based on at least one characteristic amount of brightness, size, and color of the extracted or generated glittering region,
The image processing method according to claim 1, wherein the striation data is generated or selected based on the determined parameter.
【請求項8】 合成すべき光条を規定するパラメータが
設定され、設定されたパラメータに基づいて前記光条デ
ータを生成又は選択することを特徴とする請求項1又は
請求項4記載の画像処理方法。
8. The image processing according to claim 1, wherein a parameter defining a striation to be combined is set, and the striation data is generated or selected based on the set parameter. Method.
【請求項9】 前記光条データを、光条の太さ及び色味
の少なくとも一方が、光輝領域からの距離によって変化
するように生成することを特徴とする請求項1又は請求
項4記載の画像処理方法。
9. The striation data according to claim 1, wherein the striation data is generated such that at least one of the thickness and the tint of the striation changes depending on a distance from a glittering region. Image processing method.
【請求項10】 前記光条データを合成した画像データ
は、記録材料への画像の記録に用いられるか、又は情報
記憶媒体に記憶されると共に、 前記記録材料への画像の記録、又は情報記憶媒体への記
憶を行う前に、画像データ又は光条データを合成した画
像データが表す画像を表示手段に表示し、 表示手段に表示した画像に基づいて入力された指示に応
じて、前記光条データによって光条を付加する光輝領域
を選択又は設定し、前記光条データを生成又は選択又は
修正して画像データに合成することを特徴とする請求項
1又は請求項4記載の画像処理方法。
10. The image data obtained by synthesizing the striation data is used for recording an image on a recording material, or is stored in an information storage medium, and the image is recorded on the recording material, or the information is stored. Prior to storage in the medium, an image represented by the image data or the image data obtained by synthesizing the striation data is displayed on the display means, and the striation is input in accordance with an instruction input based on the image displayed on the display means. The image processing method according to claim 1, wherein a glitter area to which a streak is added is selected or set based on data, and the streak data is generated, selected, or corrected, and combined with image data.
【請求項11】 前記光条データを前記画像データに合
成した後に、光条データを合成した画像データに対し、
記録材料への画像の記録に用いるための階調変換を行う
ことを特徴とする請求項1又は請求項4記載の画像処理
方法。
11. The image data obtained by combining the striation data with the image data after combining the striation data with the image data.
5. The image processing method according to claim 1, wherein gradation conversion for use in recording an image on a recording material is performed.
JP11097012A 1998-04-02 1999-04-02 Image processing method Pending JPH11346303A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11097012A JPH11346303A (en) 1998-04-02 1999-04-02 Image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10-89893 1998-04-02
JP8989398 1998-04-02
JP11097012A JPH11346303A (en) 1998-04-02 1999-04-02 Image processing method

Publications (1)

Publication Number Publication Date
JPH11346303A true JPH11346303A (en) 1999-12-14

Family

ID=26431292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11097012A Pending JPH11346303A (en) 1998-04-02 1999-04-02 Image processing method

Country Status (1)

Country Link
JP (1) JPH11346303A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148537A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processing method, image processing program and image processor
JP2009152780A (en) * 2007-12-19 2009-07-09 Nikon Corp Imaging apparatus, and program for imparting image effect
JP2012009995A (en) * 2010-06-23 2012-01-12 Olympus Imaging Corp Imaging apparatus, image processing method and image processing program
US20120026553A1 (en) * 2010-07-29 2012-02-02 Brother Kogyo Kabushiki Kaisha Image processing device
JP2012050060A (en) * 2010-07-29 2012-03-08 Brother Ind Ltd Image processing system, printer and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148537A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processing method, image processing program and image processor
JP2009152780A (en) * 2007-12-19 2009-07-09 Nikon Corp Imaging apparatus, and program for imparting image effect
JP2012009995A (en) * 2010-06-23 2012-01-12 Olympus Imaging Corp Imaging apparatus, image processing method and image processing program
US20120026553A1 (en) * 2010-07-29 2012-02-02 Brother Kogyo Kabushiki Kaisha Image processing device
JP2012050060A (en) * 2010-07-29 2012-03-08 Brother Ind Ltd Image processing system, printer and program
JP2012048705A (en) * 2010-07-29 2012-03-08 Brother Ind Ltd Image processing apparatus, printer, and program
US8559059B2 (en) 2010-07-29 2013-10-15 Brother Kogyo Kabushiki Kaisha Image processing device superimposing supplemental image to encompass area of original based on luminance difference between nearby pixels
US8760723B2 (en) 2010-07-29 2014-06-24 Brother Kogyo Kabushiki Kaisha Image processing device superimposing supplemental image on original image

Similar Documents

Publication Publication Date Title
US7289664B2 (en) Method of detecting and correcting the red eye
US7715050B2 (en) Tonescales for geographically localized digital rendition of people
US7127108B2 (en) Image processing method
US7024035B1 (en) Method of setting region to be subjected to red eye correction and red eye correcting method
JP3961734B2 (en) Image processing method, apparatus, and recording medium
JPWO2005079056A1 (en) Image processing apparatus, photographing apparatus, image processing system, image processing method and program
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
JP4172663B2 (en) Image processing method
JP2003204459A (en) Digital camera and image reproducing apparatus
JP2000324353A (en) Image processor, method therefor and recording medium
JPH10111928A (en) Method and device for image processing
JPH11266358A (en) Image processing method
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
US6658163B1 (en) Image processing method
JP3408770B2 (en) Image processing device
JPH11191871A (en) Image processor
JP5070921B2 (en) Development processing apparatus for undeveloped image data, development processing method, and computer program for development processing
JPH11346303A (en) Image processing method
JPH1075374A (en) Image processing unit and its method
EP0856987A2 (en) Image reading method capable of automatically adjusting image read conditions and image read apparatus adopting the method
JP2003189169A (en) Image processing apparatus
JP2003283849A (en) Method for detecting and correcting red eye
JPH11308474A (en) Image processor
JP4807315B2 (en) Development processing apparatus for undeveloped image data, development processing method, and computer program for executing development processing
JP2004328534A (en) Image forming method, image processing apparatus and image recording apparatus