JP2001211315A - Output image area adjusting method - Google Patents

Output image area adjusting method

Info

Publication number
JP2001211315A
JP2001211315A JP2000350708A JP2000350708A JP2001211315A JP 2001211315 A JP2001211315 A JP 2001211315A JP 2000350708 A JP2000350708 A JP 2000350708A JP 2000350708 A JP2000350708 A JP 2000350708A JP 2001211315 A JP2001211315 A JP 2001211315A
Authority
JP
Japan
Prior art keywords
image
area
output image
image area
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000350708A
Other languages
Japanese (ja)
Other versions
JP4049986B2 (en
Inventor
Hiroyasu Yamamoto
容靖 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2000350708A priority Critical patent/JP4049986B2/en
Publication of JP2001211315A publication Critical patent/JP2001211315A/en
Application granted granted Critical
Publication of JP4049986B2 publication Critical patent/JP4049986B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an output image area adjusting method, which can obtain proper output image data including a main subject, but including neither a finger vignetting image nor a fogging area automatically or semiautomatically through easy operation and then can automatically output an output image and efficiently perform a processing for obtaining output image from the original image. SOLUTION: An image area of the original image is extracted and an extracted area is obtained by extracting one of the main subject, finger vignetting photography, and a fogging area; and the output image area is automatically adjusted according to the extracted area and the output image data is obtained from the image data in the adjusted output image area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、原画像から出力画
像を得るための出力画像領域を自動的にまたは半自動的
に調整する出力画像領域調整方法に関し、特に、取得さ
れた大量(多数)の原画像に画像処理を施し、検定のた
めの処理画像を出力画像として表示する際に、あるいは
また、検定結果に応じて画像処理の施された出力画像を
プリント、画像データ記録媒体として出力する、または
ネットワークを介して配信する際などに用いられる出力
画像領域調整方法の技術分野に属する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an output image area adjustment method for automatically or semi-automatically adjusting an output image area for obtaining an output image from an original image. When performing image processing on the original image and displaying a processed image for verification as an output image, or alternatively, printing the output image subjected to image processing in accordance with the verification result, outputting the image as an image data recording medium, Or, it belongs to the technical field of an output image area adjustment method used when distributing via a network.

【0002】[0002]

【従来の技術】近年、ネガフィルムやリバーサルフィル
ム等の写真フィルム(以下、フィルムとする)に撮影さ
れた画像の感光材料(印画紙)への焼き付けは、デジタ
ル露光を利用する焼付装置、すなわち、フィルムに記録
された画像を光電的に読み取って、読み取った画像をデ
ジタル信号とした後、種々の画像処理を施して記録用画
像データとし、この画像データに応じて変調した記録光
によって感光材料を走査露光して画像(潜像)を記録
し、(仕上り)プリントとするデジタルフォトプリンタ
が実用化されている。
2. Description of the Related Art In recent years, an image photographed on a photographic film (hereinafter, referred to as a film) such as a negative film or a reversal film is printed on a photosensitive material (photographic paper) by using a printing apparatus utilizing digital exposure. After reading the image recorded on the film photoelectrically and converting the read image into a digital signal, the image is subjected to various image processing to form recording image data, and the photosensitive material is modulated by recording light modulated according to the image data. 2. Description of the Related Art Digital photo printers that record images (latent images) by scanning and exposing and print the images (finished) have been put to practical use.

【0003】デジタルフォトプリンタでは、画像をデジ
タル画像データとして、画像データ処理によって焼付時
の露光条件を決定することができるので、逆光やストロ
ボ撮影等に起因する画像の飛びやツブレの補正、シャー
プネス(鮮鋭化)処理、カラーフェリアや濃度フェリア
の補正、アンダー露光やオーバー露光の補正、周辺光量
低下の補正等を好適に行って、従来の直接露光では得ら
れなかった高品位なプリントを得ることができる。しか
も、複数画像の合成や画像分割、さらには文字の合成等
も画像データ処理によって行うことができ、用途に応じ
て自由に編集/処理したプリントも出力可能である。し
かも、デジタルフォトプリンタによれば、デジタルスチ
ルカメラ等で撮影された画像(画像データ)からプリン
トを作成することもでき、さらに、画像をプリント(写
真)として出力するのみならず、画像データをコンピュ
ータ等に供給したり、フロッピー(登録商標)ディスク
等の画像データ記録媒体に保存しておくこともできるの
で、画像データを、写真以外の様々な用途に利用するこ
とができる。
[0003] In a digital photo printer, the exposure condition at the time of printing can be determined by image data processing using an image as digital image data. Therefore, image skipping and blurring caused by backlight, strobe photography, and the like, and sharpness ( Sharpening) processing, correction of color feria and density feria, correction of underexposure and overexposure, correction of decrease in peripheral light amount, etc. can be performed appropriately to obtain high-quality prints that could not be obtained by conventional direct exposure. it can. In addition, synthesis of a plurality of images, image division, and synthesis of characters can be performed by image data processing, and prints that have been freely edited / processed according to the intended use can be output. In addition, according to the digital photo printer, a print can be created from an image (image data) photographed by a digital still camera or the like. Further, not only is the image output as a print (photo), but also the image data is output to a computer. Or the like, or can be stored in an image data recording medium such as a floppy (registered trademark) disk, so that the image data can be used for various purposes other than photography.

【0004】このようなデジタルフォトプリンタは、基
本的に、フィルムに記録された画像を光電的に読み取る
スキャナ(画像読取装置)、読み取った画像を画像処理
して記録用の画像データとする画像処理装置、および、
この画像データに応じて感光材料を走査露光して現像処
理を施してプリントとするプリンタ(画像記録装置)よ
り構成される。
[0004] Such a digital photo printer basically includes a scanner (image reading device) for photoelectrically reading an image recorded on a film, and an image processing for processing the read image into image data for recording. Equipment, and
The printer comprises a printer (image recording apparatus) that scans and exposes the photosensitive material in accordance with the image data, performs development processing, and prints.

【0005】スキャナでは、光源から射出された読取光
をフィルムに入射して、フィルムに撮影された画像を開
口マスクを介して担持する投影光を得、この投影光を光
学系結像レンズによってCCDセンサ等のイメージセン
サに結像して光電変換することにより画像を読み取り、
必要に応じて各種の画像処理を施した後に、フィルムの
画像データ(画像データ信号)として画像処理装置に送
る。画像処理装置は、スキャナによって読み取られた画
像データから画像処理条件を設定して、設定した条件に
応じた画像処理を画像データに施し、画像記録のための
出力画像データ(露光条件)としてプリンタに送る。プ
リンタでは、例えば、光ビーム走査露光を利用する装置
であれば、画像処理装置から送られた画像データに応じ
て光ビームを変調して、感光材料を二次元的に走査露光
(焼付け)して潜像を形成し、次いで、所定の現像処理
等を施して、フィルムに撮影された画像が再生されたプ
リント(写真)とする。
In a scanner, reading light emitted from a light source is incident on a film to obtain projection light carrying an image photographed on the film via an aperture mask, and the projection light is transmitted to a CCD by an optical imaging lens. An image is read by forming an image on an image sensor such as a sensor and performing photoelectric conversion,
After performing various types of image processing as necessary, the image data is sent to the image processing apparatus as image data (image data signal) of the film. The image processing apparatus sets image processing conditions from image data read by a scanner, performs image processing according to the set conditions on the image data, and outputs the image data to a printer as output image data (exposure conditions) for image recording. send. In a printer, for example, if the apparatus uses light beam scanning exposure, the light beam is modulated according to image data sent from the image processing apparatus, and the photosensitive material is two-dimensionally scanned and exposed (printed). A latent image is formed, and then subjected to a predetermined developing process or the like, to obtain a reproduced print (photograph) of the image photographed on the film.

【0006】ところで、このようなデジタルフォトプリ
ンタは、フィルム等に撮影された原画像を画像表示装置
やプリンタに出力する際、撮影されていない領域、すな
わち画欠けが存在することのないように、原画像の撮影
領域の画像サイズに対してプリント出力する画像領域、
すなわちプリント出力画像領域の画像サイズを小さく設
定し、しかもこのプリント出力画像領域の左右両端およ
び上下両端のマージンが等しくなるように、その設定位
置(切り出し位置)も固定している。例えば、135サ
イズのフィルムの原画像の撮影領域のサイズはフィルム
上で、36.4mm(±0.4mm)×24.4mm
(±0.4mm)(横方向×縦方向)であるのに対し、
Lサイズでプリントされるプリント出力画像領域(切り
出し領域)のサイズはフィルム上で32.07mm×2
2.47mm(横方向×縦方向)であり、原画像の撮影
領域に比べて、左右方向で約2.2mm、上下方向で約
1.0mm狭くなるように設定され固定されている。こ
のような固定されたプリント出力画像領域内の画像デー
タは、例えばLサイズのような所望のプリントサイズに
適合するように、所定の変倍率で電子変倍処理が施さ
れ、出力画像データとされている。
By the way, such a digital photo printer is designed so that, when an original image photographed on a film or the like is output to an image display device or a printer, an unphotographed area, that is, an image lack is present. An image area to be printed out for the image size of the shooting area of the original image,
That is, the image size of the print output image area is set small, and the set position (cutout position) is fixed so that the margins at the left and right ends and the upper and lower ends of the print output image area are equal. For example, the size of the shooting area of the original image of the 135-size film is 36.4 mm (± 0.4 mm) × 24.4 mm on the film.
(± 0.4 mm) (horizontal × vertical)
The size of the print output image area (cutout area) printed in L size is 32.07 mm x 2 on the film.
It is 2.47 mm (horizontal direction × vertical direction), which is set and fixed so as to be about 2.2 mm narrower in the left-right direction and about 1.0 mm in the up-down direction as compared with the shooting area of the original image. The image data in such a fixed print output image area is subjected to electronic scaling processing at a predetermined scaling ratio so as to conform to a desired print size, for example, L size, to be output image data. ing.

【0007】[0007]

【発明が解決しようとする課題】しかし、上述したよう
にフィルム上のプリント出力画像領域を原画像の撮影領
域より狭くして切り出しているために、画欠けが存在す
ることはないものの、原画像の撮影領域の端に撮影され
た主要被写体の一部もしくは全部が、画像表示画面やプ
リント出力画像では欠けてしまう場合がある。このよう
な場合、デジタルフォトプリンタを操作するオペレータ
は、主要被写体がプリント出力画像に含まれるように、
プリント出力画像領域の画像サイズを維持したまま、プ
リント出力画像領域を移動調整しなければならなかっ
た。そのため、大量(多数)の原画像をプリント処理す
る場合、処理効率が著しく低下するといった問題があっ
た。
However, as described above, since the printout image area on the film is cut out so as to be narrower than the photographing area of the original image, there is no lack of image. Some or all of the main subject photographed at the end of the photographing area may be missing on the image display screen or the print output image. In such a case, the operator who operates the digital photo printer needs the main subject to be included in the print output image.
The print output image area must be moved and adjusted while maintaining the image size of the print output image area. For this reason, when a large number (many) of original images are printed, there is a problem that the processing efficiency is significantly reduced.

【0008】また、プリント処理等される原画像には、
撮影者の指が主要被写体とともに画像端部に写る、いわ
ゆる指写り画像もある。この場合、指が写ったままプリ
ント出力等を行うか、または、指写りの領域が少なくな
るように、原画像の撮影領域に対して固定設定された上
記プリント出力画像領域をオペレータが移動調整を行っ
て、プリント出力等を行っている。そのため、大量のプ
リント処理を行うオペレータにとって煩雑な作業が増
え、処理効率が著しく低下するといった問題があった。
[0008] The original image to be printed or the like includes
There is also a so-called finger image in which the photographer's finger appears at the end of the image together with the main subject. In this case, the print output or the like is performed while the finger is shown, or the operator adjusts the movement of the print output image area fixedly set with respect to the shooting area of the original image so that the area of the finger image is reduced. And print output. Therefore, there is a problem that an operator who performs a large amount of print processing requires more complicated work, and processing efficiency is significantly reduced.

【0009】また、フィルムの一部が露光して原画像内
の画像濃度に影響を与えるいわゆるカブリを起こした原
画像の場合も、指写り画像の場合と同様に、カブリを起
こしたままプリント出力等を行うか、または、プリント
出力画像領域をオペレータが移動調整してプリント出力
等を行っている。その結果、処理効率が著しく低下する
といった問題があった。
Also, in the case of a so-called fogged original image in which a part of the film is exposed and affects the image density in the original image, the print output is performed while the fogged image is generated as in the case of the finger image. Or an operator moves and adjusts the print output image area to perform print output and the like. As a result, there is a problem that the processing efficiency is significantly reduced.

【0010】そこで、本発明は、上記従来技術の問題点
を解決するために、原画像の画像領域の中から出力画像
を得るための出力画像領域を調整して、所定の出力画像
サイズに適合した出力画像データを得るに際し、原画像
から主要被写体が含まれ、指写りやカブリ領域の含まれ
ない適正な出力画像データを自動的にまたは簡単な操作
で半自動的に得ることができ、その結果、出力画像を自
動的に出力することができるとともに、原画像から出力
画像データを得る処理を効率よく行うことのできる出力
画像領域調整方法を提供することを目的とする。
Therefore, in order to solve the above-mentioned problems of the prior art, the present invention adjusts an output image area for obtaining an output image from among the image areas of an original image and adapts the output image area to a predetermined output image size. When obtaining the output image data, it is possible to automatically or semi-automatically obtain appropriate output image data that includes the main subject from the original image and does not include finger shots and fog areas, and as a result, Another object of the present invention is to provide an output image area adjustment method capable of automatically outputting an output image and efficiently performing a process of obtaining output image data from an original image.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様は、原画像の画像領域の中から
出力画像を得るための出力画像領域を前記原画像の画像
領域内で調整して、所定の出力画像サイズに適合した出
力画像データを得る出力画像領域調整方法であって、前
記原画像の画像領域を抽出し、抽出された原画像の画像
領域に対して、主要被写体抽出、指写り抽出およびカブ
リ領域抽出のうちの少なくとも1つの領域抽出を行って
抽出領域を得、抽出された抽出領域に応じて自動的に前
記出力画像領域を調整し、この調整された出力画像領域
内の画像データより前記出力画像データを得ることを特
徴とする出力画像領域調整方法を提供するものである。
According to a first aspect of the present invention, an output image area for obtaining an output image is selected from an image area of an original image. Adjusting within, an output image area adjusting method for obtaining output image data adapted to a predetermined output image size, extracting the image area of the original image, for the image area of the extracted original image, At least one of main subject extraction, finger image extraction and fog region extraction is performed to obtain an extraction region, and the output image region is automatically adjusted according to the extracted extraction region. Another object of the present invention is to provide an output image area adjusting method, wherein the output image data is obtained from image data in the output image area.

【0012】ここで、前記原画像の画像領域に対して前
記主要被写体抽出が行われる場合、前記出力画像領域を
調整して、前記主要被写体抽出により抽出された主要被
写体を前記出力画像領域内に含ましめるのが好ましく、
その際、前記主要被写体抽出は、顔抽出であるのが好ま
しい。また、前記原画像の画像領域に対して、前記指写
り抽出または前記カブリ領域抽出が行われる場合、前記
出力画像領域を調整して、前記指写り抽出または前記カ
ブリ領域抽出により抽出された前記抽出領域を前記出力
画像領域内で最小化するのが好ましい。
Here, when the main subject is extracted from the image area of the original image, the main image extracted by the main subject extraction is adjusted in the output image area by adjusting the output image area. It is preferable to include
At this time, it is preferable that the main subject extraction is a face extraction. When the finger image extraction or the fog region extraction is performed on the image region of the original image, the extraction image extracted by the finger image extraction or the fog region extraction is adjusted by adjusting the output image region. Preferably, an area is minimized within said output image area.

【0013】また、本発明の第2の態様は、原画像の画
像領域の中から出力画像を得るための出力画像領域を前
記原画像の画像領域内で調整して、所定の出力画像サイ
ズに適合した出力画像データを得る出力画像領域調整方
法であって、原画像の画像領域を抽出し、抽出された原
画像の画像領域に対して、主要被写体抽出、指写り抽出
およびカブリ領域抽出のうちの少なくとも1つの領域抽
出を行い、抽出された抽出領域の結果によって、前記出
力画像領域の調整が必要と判断される場合には、前記出
力画像領域の調整を促す情報を発することを特徴とする
出力画像領域調整方法を提供するものである。
According to a second aspect of the present invention, an output image area for obtaining an output image from an image area of an original image is adjusted within the image area of the original image to a predetermined output image size. An output image area adjustment method for obtaining suitable output image data, comprising extracting an image area of an original image, and extracting a main subject, a finger image, and a fog area from the extracted image area of the original image. Performing at least one area extraction, and, if it is determined that the output image area needs to be adjusted based on the result of the extracted area, information that prompts adjustment of the output image area is issued. An object of the present invention is to provide an output image area adjusting method.

【0014】ここで、前記出力画像領域の調整を促す情
報は、前記主要被写体抽出が前記出力画像領域に含まれ
ていないことを示す情報、前記指写り抽出により抽出さ
れた抽出領域が前記出力画像領域に含まれていることを
示す情報および前記カブリ領域抽出により抽出された抽
出領域が前記出力画像領域に含まれていることを示す情
報の少なくとも1つであるのが好ましい。もしくは、前
記出力画像領域の調整を促す情報は、画像表示デバイス
にその中から1つを選択するように表示され、前記抽出
された抽出領域の結果に応じて調整された1つ以上の出
力画像領域枠であるのが好ましい。
Here, the information prompting the adjustment of the output image area is information indicating that the main subject extraction is not included in the output image area, and the extraction area extracted by the finger image extraction is the output image area. It is preferable that at least one of the information indicating that the image is included in the area and the information indicating that the extraction area extracted by the fog area extraction is included in the output image area. Alternatively, the information prompting adjustment of the output image area is displayed on an image display device so as to select one of the output image areas, and one or more output images adjusted according to the result of the extracted extraction area are displayed. Preferably, it is an area frame.

【0015】また、前記出力画像領域の自動調整、もし
くは前記出力画像領域の調整を促す情報の発生は、予め
入力または設定される第1補助情報に基づいて行われる
のが好ましい。また、前記第1補助情報は、前記主要被
写体抽出によって抽出される主要被写体、前記指写り抽
出によって抽出される指写りおよび前記カブリ領域抽出
によって抽出されるカブリの少なくとも2つが同一の原
画像の画像領域で抽出された際のいずれを優先させるの
かの優先順位の情報を含むのが好ましい。さらに、前記
第1補助情報は、前記主要被写体抽出、前記指写り抽出
および前記カブリ領域抽出のいずれを優先させるのかの
優先順位の情報を含むのが好ましい。
[0015] Preferably, the automatic adjustment of the output image area or the generation of information prompting the adjustment of the output image area is performed based on first auxiliary information input or set in advance. In addition, the first auxiliary information is an image of an original image in which at least two of a main subject extracted by the main subject extraction, a finger image extracted by the finger image extraction, and fog extracted by the fog region extraction are the same. It is preferable to include priority order information indicating which of the regions is prioritized when extracted. Further, it is preferable that the first auxiliary information includes priority order information indicating which of the main subject extraction, the finger image extraction and the fog region extraction is prioritized.

【0016】すなわち、前記原画像の画像領域に対し
て、前記主要被写体抽出、前記指写り抽出または前記カ
ブリ領域抽出が行われる場合、前記出力画像領域を調整
するために、前記主要被写体抽出、前記指写り抽出およ
び前記カブリ領域抽出のいずれの抽出結果を優先させる
のかの優先順位が予め設定可能であるのが好ましい。ま
た、前記原画像の画像領域に対して前記出力画像領域を
調整するために、前記主要被写体抽出、前記指写り抽出
および前記カブリ領域抽出のいずれの抽出処理およびそ
の抽出結果を優先させるのかの優先順位が予め設定可能
であるのが好ましい。
That is, when the main subject extraction, the finger image extraction, or the fog region extraction is performed on the image region of the original image, the main subject extraction, the fuzzy region extraction, and the fog region extraction are performed to adjust the output image region. It is preferable that a priority order can be set in advance as to which of the finger image extraction and the fog area extraction should be given priority. In addition, in order to adjust the output image area with respect to the image area of the original image, priority is given to which of the extraction processing of the main subject extraction, the finger image extraction and the fogging area extraction and the extraction result is prioritized. Preferably, the order can be set in advance.

【0017】また、前記少なくとも1つの領域抽出は、
オペレータの第2補助情報に基づいて行われるのが好ま
しい。また、前記第2補助情報は、主要被写体領域、指
写り領域およびカブリ領域のうちの少なくとも1つの領
域内の位置を指定することによって与える情報であるの
が好ましい。
[0017] The at least one region extraction may include:
Preferably, it is performed based on the second auxiliary information of the operator. Preferably, the second auxiliary information is information given by designating a position in at least one of a main subject area, a finger image area, and a fog area.

【0018】また、前記抽出領域に応じた前記出力画像
領域の調整は、前記原画像の画像領域から切り出す前記
出力画像領域の画像サイズを変更せずに、前記原画像の
画像領域から切り出す前記出力画像領域の位置を変更す
ることによって行うのが好ましい。もしくは、前記抽出
領域に応じた前記出力画像領域の調整は、少なくとも、
前記原画像の画像領域から切り出す前記出力画像領域の
画像サイズを変更し、この変更された画像サイズに応じ
て電子変倍処理の変倍率を変更するか、もしくは、この
変更された画像サイズの出力画像領域内の画像を光学倍
率を変更して光電的に読み取ることによって行うのが好
ましい。その際、前記変更した出力画像領域の画像サイ
ズの縦横比は、画像サイズ変更前の前記出力画像領域の
縦横比と同じであるのが好ましい。
The adjustment of the output image area according to the extraction area may be performed by changing the output image area cut out from the image area of the original image without changing the image size of the output image area cut out from the image area of the original image. Preferably, this is done by changing the position of the image area. Or at least the adjustment of the output image area according to the extraction area,
Changing the image size of the output image area cut out from the image area of the original image, changing the magnification of the electronic magnification processing according to the changed image size, or outputting the changed image size It is preferable that the image in the image area is read photoelectrically while changing the optical magnification. At this time, it is preferable that the aspect ratio of the image size of the changed output image area is the same as the aspect ratio of the output image area before the image size is changed.

【0019】また、前記原画像は、写真フィルムに記録
された画像を光電的に読み取って得られるデジタル画
像、デジタルスチルカメラで撮影されて得られるデジタ
ル画像またはネットワークを介して取得されるデジタル
画像であるのが好ましく、前記出力画像データは、画像
表示装置、あるいはプリント出力装置に出力されるか、
または画像データ記録媒体に記録されるか、もしくはネ
ットワークを介して配信されるのが好ましい。
The original image is a digital image obtained by photoelectrically reading an image recorded on a photographic film, a digital image obtained by photographing with a digital still camera, or a digital image obtained via a network. Preferably, the output image data is output to an image display device, or a print output device,
Alternatively, it is preferably recorded on an image data recording medium or distributed via a network.

【0020】[0020]

【発明の実施の形態】本発明に係る出力画像領域調整方
法を添付の図面に示す好適実施例に基づいて以下に詳細
に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An output image area adjusting method according to the present invention will be described below in detail with reference to a preferred embodiment shown in the accompanying drawings.

【0021】図1に、本発明の出力画像領域調整方法の
一例を実施するデジタルフォトプリンタの一実施例のブ
ロック図が示される。図1に示されるデジタルフォトプ
リンタ(以下、フォトプリンタとする)10は、基本的
に、フィルムFに撮影された画像を光電的に読み取るス
キャナ(画像読取装置)12と、読み取られた画像デー
タ(画像情報)の画像処理やフォトプリンタ10全体の
操作および制御等を行う画像処理装置14と、画像処理
装置14から出力された画像データに応じて変調した光
ビームで感光材料(印画紙)を画像露光し、現像処理し
て(仕上り)プリントとして出力するプリンタ16とを
有する。また、画像処理装置14には、様々な条件の入
力や設定、処理の選択や指示、色/濃度補正などの指示
等を入力するためのキーボード18aおよびマウス18
bを有する操作系18と、スキャナ12で読み取られた
画像、各種の操作指示、条件の設定/登録画面等を表示
するディスプレイ20と、MO、FD,CD−Rやデジ
タルスチルカメラのメモリなどの画像データ記録媒体1
9aからまたは画像データ記録媒体19aへの画像デー
タの読み出しまたは記録を行うドライバ19bと、イン
ターネットなどのネットワークを介しての送受信を行う
送受信デバイス21が接続される。
FIG. 1 is a block diagram showing an embodiment of a digital photo printer for implementing an example of the output image area adjusting method of the present invention. A digital photo printer (hereinafter, referred to as a photo printer) 10 shown in FIG. 1 basically includes a scanner (image reading device) 12 that photoelectrically reads an image captured on a film F, and read image data ( An image processing device 14 that performs image processing of image information and the entire operation and control of the photo printer 10, and images a photosensitive material (photographic paper) with a light beam modulated according to image data output from the image processing device 14. A printer 16 that exposes, develops, and outputs (finished) prints. The image processing apparatus 14 has a keyboard 18a and a mouse 18 for inputting and setting various conditions, selecting and instructing processing, and instructing color / density correction.
b, a display 20 for displaying images read by the scanner 12, various operation instructions, condition setting / registration screens, and the like, and memories for MO, FD, CD-R, and digital still cameras. Image data recording medium 1
A driver 19b for reading or recording image data from 9a or to the image data recording medium 19a is connected to a transmitting / receiving device 21 for transmitting / receiving via a network such as the Internet.

【0022】スキャナ12は、フィルムF等に撮影され
た画像を1コマずつ光電的に読み取る装置で、光源22
と、可変絞り24と、フィルムFに入射する読取光をフ
ィルムFの面方向で均一にする拡散ボックス28と、結
像レンズユニット32と、R(赤)、G(緑)およびB
(青)の各画像読取に対応するラインCCDセンサを有
するイメージセンサ34と、アンプ(増幅器)36と、
A/D(アナログ/デジタル)変換器38とを有する。
The scanner 12 is a device for photoelectrically reading an image photographed on a film F or the like one frame at a time.
A variable aperture 24, a diffusion box 28 for making the reading light incident on the film F uniform in the surface direction of the film F, an imaging lens unit 32, R (red), G (green), and B
An image sensor 34 having a line CCD sensor corresponding to each image reading of (blue), an amplifier 36,
An A / D (analog / digital) converter 38.

【0023】また、フォトプリンタ10においては、新
写真システム(Advanced Photo System)や135サイズ
のネガ(あるいはリバーサル)フィルム等のフィルムの
種類やサイズ、ストリップスやスライド等のフィルムの
形態等に応じて、スキャナ12の本体に装着自在な専用
のキャリア30が用意されており、キャリア30を交換
することにより、各種のフィルムや処理に対応すること
ができる。フィルムFに撮影され、プリント作成に供さ
れる画像(コマ)は、このキャリアによって所定の読取
位置に搬送される。このようなスキャナ12において、
フィルムFに撮影された画像を読み取る際には、光源2
2から射出され、可変絞り24によって光量調整された
読取光が、キャリアによって所定の読取位置に位置され
たフィルムFに入射して、透過することにより、フィル
ムFに撮影された画像を担持する投影光を得る。
In the photo printer 10, the type and size of a film such as a new photographic system (Advanced Photo System) or a 135-size negative (or reversal) film, the form of a film such as strips and slides, etc., are selected. A dedicated carrier 30 that can be mounted on the main body of the scanner 12 is prepared. By replacing the carrier 30, various types of films and processes can be handled. An image (frame) photographed on the film F and provided for printing is conveyed to a predetermined reading position by this carrier. In such a scanner 12,
When reading an image captured on the film F, the light source 2
The projection light carrying the image photographed on the film F by being incident on the film F positioned at a predetermined reading position by the carrier and transmitting therethrough, the reading light emitted from the lens 2 and adjusted in light amount by the variable aperture 24. Get light.

【0024】キャリア30は、所定の読取位置にフィル
ムFを位置規制しつつ、イメージセンサ34のラインC
CDセンサの延在方向(主走査方向)と直交する副走査
方向に、フィルムFの長手方向を一致させて搬送する、
読取位置を副走査方向に挟んで配置される搬送ローラ対
(図示されない)と、フィルムFの投影光を所定のスリ
ット状に規制する、読取位置に対応して位置する主走査
方向に延在するスリットを有するマスク(図示されな
い)とを有する。フィルムFは、このキャリア30によ
って読取位置に位置されて副走査方向に搬送されつつ、
読取光が入射される。これにより、結果的にフィルムF
が主走査方向に延在するスリットによって2次元的にス
リット走査され、フィルムFに撮影された各コマの画像
が読み取られる。
The carrier 30 regulates the position of the film F at a predetermined reading position while controlling the line C of the image sensor 34.
The film F is conveyed with the longitudinal direction of the film F aligned with the sub-scanning direction orthogonal to the extending direction (main scanning direction) of the CD sensor.
A pair of transport rollers (not shown) arranged so as to sandwich the reading position in the sub-scanning direction, and extend in the main scanning direction positioned corresponding to the reading position to regulate the projection light of the film F into a predetermined slit shape. A mask (not shown) having a slit. The film F is positioned at the reading position by the carrier 30 and is transported in the sub-scanning direction.
A reading light is incident. Thereby, as a result, the film F
Is two-dimensionally slit-scanned by a slit extending in the main scanning direction, and an image of each frame captured on the film F is read.

【0025】前述のように、読取光は、キャリア30に
保持されたフィルムFを透過して画像を担持する投影光
となり、この投影光は、結像レンズユニット32によっ
てイメージセンサ34の受光面に結像される。イメージ
センサ34は、R画像の読み取りを行うラインCCDセ
ンサ34R、G画像の読み取りを行うラインCCDセン
サ34G、およびB画像の読み取りを行うラインCCD
センサ34Bを有する、いわゆる3ラインのカラーCC
Dセンサで、各ラインCCDセンサは、前述のように主
走査方向に延在している。フィルムFの投影光は、この
イメージセンサ34によって、R、GおよびBの3原色
に分解されて光電的に読み取られる。イメージセンサ3
4の出力信号は、アンプ36で増幅され、A/D変換器
38でデジタル信号とされて、画像処理装置14に送ら
れる。
As described above, the reading light is transmitted through the film F held by the carrier 30 and becomes projection light for carrying an image. The projection light is transmitted to the light receiving surface of the image sensor 34 by the imaging lens unit 32. It is imaged. The image sensor 34 includes a line CCD sensor 34R for reading an R image, a line CCD sensor 34G for reading a G image, and a line CCD sensor for reading a B image.
A so-called three-line color CC having the sensor 34B
In the D sensor, each line CCD sensor extends in the main scanning direction as described above. The projection light of the film F is separated into three primary colors of R, G and B by the image sensor 34 and read photoelectrically. Image sensor 3
The output signal of No. 4 is amplified by the amplifier 36, converted into a digital signal by the A / D converter 38, and sent to the image processing device 14.

【0026】スキャナ12においては、フィルムFに撮
影された画像の読み取りを、低解像度で読み取るプレス
キャンと、出力画像の画像データを得るためのファイン
スキャンとの、2回の画像読取で行う。プレスキャン
は、スキャナ12が対象とする全てのフィルムの画像
を、イメージセンサ34が飽和することなく読み取れる
ように、あらかじめ設定された、プレスキャンの読取条
件で行われる。一方、ファインスキャンは、プレスキャ
ンデータから、その画像(コマ)の最低濃度よりも若干
低い濃度でイメージセンサ34が飽和するように、各コ
マ毎に設定されたファインスキャンの読取条件で行われ
る。プレスキャンとファインスキャンの出力信号は、解
像度と出力レベルが異なる以外は、基本的に同じデータ
である。
The scanner 12 reads an image photographed on the film F by two image reading operations: a prescan for reading at a low resolution and a fine scan for obtaining image data of an output image. The pre-scan is performed under pre-scan reading conditions set in advance so that the image of all the films targeted by the scanner 12 can be read without saturation of the image sensor 34. On the other hand, the fine scan is performed under the fine scan reading conditions set for each frame from the pre-scan data so that the image sensor 34 is saturated at a density slightly lower than the minimum density of the image (frame). The output signals of the prescan and the fine scan are basically the same data except that the resolution and the output level are different.

【0027】なお、デジタルフォトプリンタ10におい
て、スキャナ12はスリット走査読取によるものに限定
されず、1コマの画像の全面に読取光を照射して一度に
読み取る、面読取を利用するものであってもよい。この
場合には、例えば、エリアCCDセンサを用い、光源と
フィルムFとの間に、R、GおよびBの各色フィルタの
挿入手段を設け、色フィルタを挿入してエリアCCDセ
ンサで画像を読み取ることを、R、GおよびBの各色フ
ィルタで順次行い、フィルムFに撮影された画像を3原
色に分解して順次読み取る。なお、エリアCCDセンサ
で読み取られる読取領域は、原画像の撮影領域より広く
設定される。前述のように、スキャナ12から出力され
たデジタル画像信号は、画像処理装置(以下、処理装置
とする)14に出力される。なお、本実施例で行われる
画像処理の対象は、フィルムFをスキャナ12で読み取
ってA/D変換されたデジタル画像信号であるが、デジ
タルスチルカメラ等で撮影されたデジタル画像信号や各
種の画像データ記録媒体19aから読み出されたデジタ
ル画像信号や各種のネットワークを介して得られる撮影
画像の画像デジタル信号であってもよい。
In the digital photo printer 10, the scanner 12 is not limited to the one based on the slit scanning reading, and uses a surface reading in which the reading light is irradiated onto the entire surface of one frame image and read at a time. Is also good. In this case, for example, using an area CCD sensor, providing means for inserting R, G, and B color filters between the light source and the film F, inserting a color filter, and reading an image with the area CCD sensor. Are sequentially performed by the R, G, and B color filters, and the image captured on the film F is separated into three primary colors and sequentially read. The reading area read by the area CCD sensor is set wider than the shooting area of the original image. As described above, the digital image signal output from the scanner 12 is output to an image processing device (hereinafter, referred to as a processing device) 14. The object of the image processing performed in the present embodiment is a digital image signal obtained by reading the film F by the scanner 12 and A / D converting the digital image signal. It may be a digital image signal read from the data recording medium 19a or an image digital signal of a captured image obtained via various networks.

【0028】図2に、処理装置14のブロック図を示
す。処理装置14は、データ処理部40、Log変換器
42、プレスキャン(フレーム)メモリ44、ファイン
スキャン(フレーム)メモリ46、プレスキャン処理部
48、ファインスキャン処理部50、および条件設定部
60を有する。なお、図2は、主に、画像処理関連の部
位を示すものであり、処理装置14には、これ以外に
も、処理装置14を含むフォトプリンタ10全体の制御
や管理を行うCPU、フォトプリンタ10の作動等に必
要な情報を記憶するメモリ等が配置され、また、操作系
18やディスプレイ20は、このCPU等(CPUバ
ス)を介して各部位に接続される。
FIG. 2 shows a block diagram of the processing device 14. The processing device 14 includes a data processing unit 40, a Log converter 42, a prescan (frame) memory 44, a fine scan (frame) memory 46, a prescan processing unit 48, a fine scan processing unit 50, and a condition setting unit 60. . FIG. 2 mainly shows image processing-related parts. The processing device 14 includes a CPU that controls and manages the entire photo printer 10 including the processing device 14, a photo printer, and the like. A memory or the like for storing information necessary for the operation or the like of the device 10 is arranged, and the operation system 18 and the display 20 are connected to each part via the CPU or the like (CPU bus).

【0029】スキャナ12から出力されたR,Gおよび
Bの各デジタル信号は、データ処理部40において、暗
時補正、欠陥画素補正、シェーディング補正等の所定の
データ処理を施された後、Log変換器42によって変
換されてデジタルの画像データ(濃度データ)とされ、
プレスキャンデータはプレスキャンメモリ44に、ファ
インスキャンデータはファインスキャンメモリ46に、
それぞれ記憶(格納)される。プレスキャンメモリ44
に記憶されたプレスキャンデータは、画像データ処理部
52と画像データ変換部54とを有するプレスキャン処
理部48に、他方、ファインスキャンメモリ46に記憶
されたファインスキャンデータは、画像データ処理部5
6と画像データ変換部58とを有するファインスキャン
処理部50に読み出され、処理される。
The R, G, and B digital signals output from the scanner 12 are subjected to predetermined data processing such as darkness correction, defective pixel correction, and shading correction in a data processing unit 40, and then are Log-converted. Is converted into digital image data (density data) by the
The pre-scan data is stored in the pre-scan memory 44, the fine scan data is stored in the fine scan memory 46,
Each is stored (stored). Prescan memory 44
The pre-scan data stored in the fine scan memory 46 is stored in the pre-scan processing unit 48 having an image data processing unit 52 and an image data conversion unit 54, while the fine scan data stored in the fine scan memory 46 is stored in the image data processing unit 5.
The image data is read out and processed by the fine scan processing unit 50 having the image data conversion unit 6 and the image data conversion unit 58.

【0030】ここで、プレススキャンデータは、少なく
とも複数の原画像、例えばフィルムFに撮影されたコマ
の全原画像をコマの切目なく、ラインCCDセンサで一
気に読み込むため、プレスキャンデータはプレスキャン
した各コマの原画像の画像データの他に、各コマ間の非
撮影領域であるフィルムFのベース(非画像)領域も画
像データとして読み込まれる。
Here, the press scan data is obtained by prescanning at least a plurality of original images, for example, all original images of the frames photographed on the film F without a break between the frames by the line CCD sensor at a stretch. In addition to the image data of the original image of each frame, a base (non-image) region of the film F, which is a non-shooting region between frames, is read as image data.

【0031】プレスキャン処理部48の画像データ処理
部52は、後述する画像処理が施される前に、後述する
条件設定部60のセットアップ部62において検出され
た原画像の画像領域、すなわち検出画像領域G0 (図4
(a)および(b)参照)の位置情報を得る。画像デー
タ処理部52は、この位置情報に基づいて、プレスキャ
ンメモリ44から原画像の画像領域G0 内のプレスキャ
ン(画像)データを読み出し、所定の画像処理を行う。
一方、ファインスキャン処理部50の画像データ処理部
52は、条件設定部60の出力画像領域設定部68にお
いて原画像の検出画像領域G0 から設定されたプリント
出力画像領域P(図4(b)参照)の位置情報を得、得
られた位置情報に基づいて、ファインスキャンメモリ4
6からプリント出力画像領域P内のファインスキャン
(画像)データを読み出し、所定の画像処理を行う。
The image data processing section 52 of the pre-scan processing section 48 performs image processing of the original image detected by the setup section 62 of the condition setting section 60, which will be described later, before the image processing described below is performed. Region G 0 (FIG. 4
(See (a) and (b)). Image data processing unit 52, based on the positional information, reads out the prescanned (image) data in the image area G 0 of the original image from the prescan memory 44, performs predetermined image processing.
On the other hand, the image data processing unit 52 of the fine scan processing unit 50 detects the image region G 0 print output image area set from P of the original image in the output image area setting unit 68 of the condition setting section 60 (see FIG. 4 (b) ), And based on the obtained position information, the fine scan memory 4
Then, the fine scan (image) data in the print output image area P is read from 6 and predetermined image processing is performed.

【0032】プレスキャン処理部48の画像データ処理
部52と、ファインスキャン処理部50の画像データ処
理部56は、後述する条件設定部60が設定した処理条
件に応じて、検出画像領域G0 の画像(画像データ)
に、所定の画像処理を施す部位であって、両者は、解像
度が異なる以外は、基本的に、同じ処理を行う。両画像
データ処理部52および56による画像処理には、出力
画像の画像サイズに適合させるための電子変倍処理が少
なくとも含むが、それ以外は、特に限定はなく、公知の
各種の画像処理が例示される。例えば、LUT(ルック
アップテーブル)を用いたグレイバランス調整、階調補
正、および濃度(明るさ)調整、マトリクス(MTX)
による撮影光源種補正や画像の彩度調整(色調整)、そ
の他、粒状抑制処理やシャープネス強調処理、覆い焼き
処理(濃度ダイナミックレンジの圧縮/伸長)等が例示
される。
The image data processing section 52 of the pre-scan processing section 48 and the image data processing section 56 of the fine scan processing section 50 perform processing on the detected image area G 0 in accordance with processing conditions set by a condition setting section 60 described later. Image (image data)
In addition, a part to be subjected to predetermined image processing, and basically performs the same processing except that the resolution is different. The image processing by the two image data processing units 52 and 56 includes at least an electronic scaling process for adjusting to the image size of the output image, but other than that, there is no particular limitation, and various known image processes are exemplified. Is done. For example, gray balance adjustment, gradation correction, and density (brightness) adjustment using an LUT (look-up table), matrix (MTX)
, Correction of image light source type, saturation adjustment (color adjustment) of an image, graininess suppression processing, sharpness enhancement processing, dodging processing (compression / expansion of density dynamic range), and the like.

【0033】画像データ変換部54は、画像データ処理
部52によって処理された画像データを、必要に応じて
間引いて、例えば、3D(三次元)−LUT等を用い
て、ディスプレイ20による表示に対応する画像データ
に変換して、ディスプレイ20に供給する。画像データ
変換部58は、画像データ処理部56によって処理され
た画像データを、同様に、3D−LUT等を用いて、プ
リンタ16による画像記録に対応する出力画像データに
変換して、プリンタ16に供給する。
The image data conversion unit 54 thins out the image data processed by the image data processing unit 52 as necessary, and responds to the display on the display 20 using, for example, a 3D (three-dimensional) -LUT. The image data is supplied to the display 20. The image data conversion unit 58 similarly converts the image data processed by the image data processing unit 56 into output image data corresponding to image recording by the printer 16 using a 3D-LUT or the like, and Supply.

【0034】条件設定部60は、原画像の検出画像領域
0 を検出するための画像検出処理を行うとともにプレ
スキャン処理部48およびファインスキャン処理部50
における各種の処理条件や、ファインスキャンの読取条
件を設定するセットアップ部62、キー補正部64、パ
ラメータ統合部66およびプリント出力画像領域Pを自
動的に調整するための出力画像領域設定部68を有す
る。ここで、出力画像領域設定部68で設定されるプリ
ント出力画像領域(以下、出力画像領域という)Pと
は、この出力画像領域P内の画像が、所望のプリントサ
イズでプリント出力されるように原画像の画像領域G0
内に設けられる画像領域である。
The condition setting section 60 performs an image detection process for detecting the detected image area G 0 of the original image, and performs a pre-scan processing section 48 and a fine scan processing section 50.
Has a setup section 62 for setting various processing conditions and fine scan reading conditions, a key correction section 64, a parameter integration section 66, and an output image area setting section 68 for automatically adjusting the print output image area P. . Here, the print output image area (hereinafter, referred to as an output image area) P set by the output image area setting unit 68 is such that an image in the output image area P is printed out at a desired print size. Image area G 0 of original image
This is an image area provided inside.

【0035】セットアップ部62は、まず、画像検出処
理を行って、原画像の画像領域G0(図4(a)参照)
を検出し、検出画像領域G0 (図4(b)参照)を得
る。画像検出処理を行うのは、上述したように、プレス
キャンデータには、プレスキャンとして読んだ原画像の
画像領域G0 の画像データの他に、各原画像のコマ間の
フィルムFのベース領域の画像データも含まれるため、
このプレスキャンデータから後述する画像処理を施すた
めの原画像の画像領域G0 内の画像データを抽出する必
要が有るからである。画像の検出は、プレスキャンデー
タの中から、画像濃度値に基づいて原画像の画像領域G
0 の左右両端のエッジおよび上下両端のエッジを判別す
る。例えば、左右両端のエッジの場合、フィルムFの長
軸方向の画像濃度値が、フィルムFの長尺方向と直交す
る幅方向で一様に変化する位置を原画像の画像コマの一
方のエッジと判断し、さらに、上記検出されたエッジか
ら、予め得られているフィルム種から求まるフィルム長
尺方向の原画像の画像領域G0 の横幅分離れた位置付近
の画像濃度値を調べ、画像濃度値がフィルムFの幅方向
で一様に変化する位置を原画像の画像コマの他方のエッ
ジと判断する。得られた検出画像領域G0 の位置情報
は、パラメータ統合部66および出力画像領域設定部6
8等に送られる。なお、画像検出処理は、プレスキャン
処理部48の画像データ処理部52において行い、条件
設定部60のセットアップ部62に送るようにしても良
い。
The setup section 62 first performs an image detection process to obtain an image area G 0 of the original image (see FIG. 4A).
To obtain a detected image area G 0 (see FIG. 4B). As described above, the image detection processing is performed in the pre-scan data in addition to the image data of the image area G 0 of the original image read as the pre-scan and the base area of the film F between frames of each original image. Because the image data of
Because need to extract the image data in the image area G 0 of the original image to apply image processing to be described later, from the pre-scan data exists. The image is detected in the image area G of the original image based on the image density value from the pre-scan data.
The left and right edges of 0 and the upper and lower edges are determined. For example, in the case of the left and right edges, the position where the image density value in the long axis direction of the film F uniformly changes in the width direction orthogonal to the long direction of the film F is defined as one edge of the image frame of the original image. determination and, further, from the detected edges, examined the image density value of the lateral width of distant vicinity of the position of the image area G 0 of the film long direction of the original image obtained from the film type which has been obtained in advance, the image density value Is determined as the other edge of the image frame of the original image. The obtained position information of the detected image area G 0 is stored in the parameter integrating section 66 and the output image area setting section 6.
8 etc. Note that the image detection processing may be performed in the image data processing unit 52 of the prescan processing unit 48 and sent to the setup unit 62 of the condition setting unit 60.

【0036】セットアップ部62は、さらに、画像検出
処理によって得られた原画像の検出画像領域G0 に基づ
いて、プレスキャンメモリ44からプレスキャンデータ
を読み出し、プレスキャンデータから、濃度ヒストグラ
ムの作成や、平均濃度、ハイライト(最低濃度)、シャ
ドー(最高濃度)等の画像特徴量の算出を行い、ファイ
ンスキャンの読取条件を決定し、また濃度ヒストグラム
や画像特徴量に加え、必要に応じて行われるオペレータ
による指示等に応じて、グレイバランス調整、階調補正
および濃度調整を行うLUTの作成、MTX演算式の作
成等、プレスキャン処理部48およびファインスキャン
処理部50における各種の画像処理条件を設定する。
The setup unit 62 further reads out pre-scan data from the pre-scan memory 44 based on the detected image area G 0 of the original image obtained by the image detection processing, and creates a density histogram from the pre-scan data. Calculates image characteristics such as image density, average density, highlight (lowest density), shadow (highest density), and determines scanning conditions for fine scan. Various image processing conditions in the pre-scan processing unit 48 and the fine scan processing unit 50, such as creation of an LUT for performing gray balance adjustment, gradation correction and density adjustment, and creation of an MTX arithmetic expression, according to an instruction from the operator. Set.

【0037】キー補正部64は、濃度(明るさ)、色、
コントラスト、シャープネス、彩度調等を調整するキー
ボード18aやマウス18bで入力された各種の指示等
に応じて、画像処理条件の調整量を算出し、パラメータ
統合部66に供給するものである。パラメータ統合部6
6は、セットアップ部62が設定した原画像の検出画像
領域G0 の位置情報やプレスキャン画像データに施す画
像処理条件等を受け取り、プレスキャン処理部48に送
ると共に、出力画像領域設定部68が自動的に設定し、
必要に応じてキー補正部64を介してオペレータの検定
によって確定した出力画像領域Pの位置情報や出力画像
領域設定部68が生成した出力画像領域Pの調整を促す
情報、場合によっては出力画像領域Pの画像サイズの情
報を出力画像領域設定部68からセットアップ部62を
介して受け取るとともに、セットアップ部62が設定
し、必要に応じてキー補正部64を介してオペレータの
検定によって確定したファインスキャン画像データに施
す画像処理等の処理条件を受け取り、出力画像領域Pの
情報やファインスキャン画像データに施す画像処理等の
処理条件を統合化してファインスキャン処理部50の画
像データ処理部56に設定する部分である。
The key correction section 64 includes a density (brightness), a color,
The amount of adjustment of the image processing condition is calculated in accordance with various instructions input from the keyboard 18a or the mouse 18b for adjusting contrast, sharpness, saturation, and the like, and is supplied to the parameter integration unit 66. Parameter integration unit 6
6 receives the image processing conditions for performing the position information of the detected image area G 0 of the original image setup unit 62 is set or pre-scan image data, and sends the prescan processing section 48, an output image area setting unit 68 Automatically set,
The position information of the output image area P determined by the operator's test via the key correction unit 64 and the information prompting the adjustment of the output image area P generated by the output image area setting unit 68 as necessary. The information of the P image size is received from the output image area setting unit 68 via the setup unit 62, and the fine scan image set by the setup unit 62 and confirmed by the operator's test via the key correction unit 64 as necessary. A part that receives processing conditions such as image processing applied to data, integrates information on the output image area P and processing conditions such as image processing applied to fine scan image data, and sets the integrated information in the image data processing unit 56 of the fine scan processing unit 50 It is.

【0038】出力画像領域設定部68は、本発明の特徴
とするところであって、セットアップ部62より供給さ
れる原画像の検出画像領域G0 の位置情報およびプレス
キャン画像データに基づいて、出力画像領域Pを自動調
整する、または出力画像領域Pを調整する必要があるこ
とを判断し、例えば、ディスプレイ20などに表示し
て、オペレータに出力画像領域Pの調整を促す情報を生
成する部分である。まず、出力画像領域設定部68の第
1の実施例は、図3(a)に示すように、主要被写体抽
出部68aおよび出力画像領域調整部68bとを備え
る。同図に示す主要被写体抽出部68aは、主要被写体
である人物の顔を抽出する部分であり、本発明で実行す
る顔抽出方法には特に限定はないが、一例として、肌色
・円形状抽出による顔抽出、顔輪郭・円形状抽出による
顔抽出、胴体・円形状抽出による顔抽出、眼部(顔内部
構造)・円形状抽出による顔抽出、頭髪部抽出・円形状
抽出による顔抽出等が挙げられる。これらの抽出方法に
ついては、本出願人に係る特開平8−184925号公
報等に詳述されている。
The output image area setting section 68 is a feature of the present invention. The output image area setting section 68 outputs the output image area based on the position information of the detected image area G 0 of the original image supplied from the setup section 62 and the prescan image data. It is a portion that determines that it is necessary to automatically adjust the area P or adjust the output image area P, and displays the information on the display 20 or the like, for example, to generate information that prompts the operator to adjust the output image area P. . First, the first embodiment of the output image area setting section 68 includes a main subject extracting section 68a and an output image area adjusting section 68b as shown in FIG. The main subject extraction unit 68a shown in FIG. 6 is a part for extracting a face of a person who is a main subject, and the face extraction method executed in the present invention is not particularly limited. Face extraction, face extraction by face contour / circle shape extraction, face extraction by torso / circle shape extraction, face extraction by eye (internal face structure) / circle shape extraction, face extraction by head hair extraction / circle shape extraction, etc. Can be These extraction methods are described in detail in Japanese Patent Application Laid-Open No. 8-184925 and the like.

【0039】例えば、肌色・円形状抽出は、肌色抽出お
よび円形状抽出を行うことにより、顔領域を抽出する。
すなわち、プレスキャンデータ(必要に応じて間引いて
も可)から各画素の色相および彩度を知見し、人の肌の
肌色と推定できる画素領域(肌色領域)を抽出し、次い
で、人の顔は一般的に楕円形であるので、抽出した肌色
領域から、人の顔であると推定される(楕)円形状を抽
出して、これを顔領域候補とする。
For example, in the skin color / circular shape extraction, a face region is extracted by performing skin color extraction and circular shape extraction.
That is, the hue and saturation of each pixel are found from pre-scan data (thinning can be performed if necessary), and a pixel area (skin color area) that can be estimated as a skin color of human skin is extracted. Is generally an elliptical shape, an (elliptical) circular shape presumed to be a human face is extracted from the extracted skin color region, and this is used as a face region candidate.

【0040】また、顔輪郭・円形状抽出は、エッジ抽出
による顔輪郭抽出および円形状抽出を行って顔領域候補
を抽出する。以下同様に、胴体・円形状抽出は、エッジ
抽出による胴体輪郭抽出および円形状抽出、眼部・円形
状抽出は、人の眼の抽出および円形状抽出、頭髪部・円
形状抽出は、エッジ抽出による人の頭髪の抽出および円
形状抽出を行って顔領域候補を抽出し、顔領域候補の中
から各抽出方法で共通する顔領域候補を顔領域として抽
出する。
In the face outline / circle shape extraction, a face area candidate is extracted by performing face outline extraction and circular shape extraction by edge extraction. Similarly, torso / circular shape extraction is torso contour extraction and circular shape extraction by edge extraction, eye / circle shape extraction is human eye extraction and circular shape extraction, and hair / circle shape extraction is edge extraction The extraction of a human hair and the extraction of a circular shape are performed to extract face area candidates, and a common face area candidate is extracted as a face area from the face area candidates by each extraction method.

【0041】また、本発明においては、例えば特開平4
−346332号、同4−346333号、同4−34
6334号、同5−100328号、同5−15816
4号、同5−165119号、同5−165120号、
同6−67320号、同6−160992号、同6−1
60993号、同6−160994号、同6−1609
95号、同8−122944号、同9−80652号、
同9−101579号、同9−138470号、同9−
138471号等の各公報に開示される、公知の各種の
主要部抽出方法も利用可能である。また、主要被写体抽
出部68aは、顔抽出に限られず、動物や特定形状の特
定被写体を抽出するものであってもよい。このような抽
出は、予めオペレータがキーボード18aやマウス18
bを介してキー補正部64から特定被写体を入力しても
よい。
In the present invention, for example,
-346332, 4-346333, 4-34
No. 6334, No. 5-100328, No. 5-15816
No. 4, 5-165119, 5-165120,
Nos. 6-67320, 6-160992, 6-1
No. 60993, No. 6-160994, No. 6-1609
No. 95, No. 8-122944, No. 9-80652,
9-101579, 9-138470, 9-
Various known main part extraction methods disclosed in respective publications such as 138471 can also be used. Further, the main subject extracting unit 68a is not limited to the face extraction, and may extract an animal or a specific subject having a specific shape. Such extraction is performed by the operator in advance by the keyboard 18a or the mouse 18
The specific subject may be input from the key correction unit 64 via b.

【0042】また、顔抽出の他に、図3(b)や図3
(c)に示されるように、主要被写体抽出部68aおよ
び出力画像領域調整部68bに替えて、指写り抽出部6
8cやカブリ領域抽出部68eおよび出力画像領域調整
部68dを設けてもよい。さらに、図3(d)に示され
るように、主要被写体抽出部68a、指写り抽出部68
cおよびカブリ領域抽出部68eの3つの抽出部に対し
て1つの出力画像領域調整部68fを設けるものであっ
てもよい。なお、指写り抽出部68cで行われる指写り
領域の抽出やカブリ領域抽出部68eで行われるカブリ
領域の抽出、さらには出力画像領域調整部68dおよび
68fで行われる出力画像領域Pの調整については後述
する。
In addition to the face extraction, FIG.
As shown in (c), instead of the main subject extracting unit 68a and the output image area adjusting unit 68b, the finger image extracting unit 6
8c, a fog area extraction unit 68e, and an output image area adjustment unit 68d. Further, as shown in FIG. 3D, the main subject extracting unit 68a and the finger image extracting unit 68
One output image area adjustment unit 68f may be provided for the three extraction units c and the fog area extraction unit 68e. Note that extraction of a finger reflection region performed by the finger reflection extraction unit 68c, extraction of a fog region performed by the fog region extraction unit 68e, and adjustment of the output image region P performed by the output image region adjustment units 68d and 68f are described below. It will be described later.

【0043】出力画像領域調整部68bは、主要被写体
抽出部68aによって抽出された抽出領域の結果によっ
て、得られた主要被写体が、予め定められている原画像
の画像領域内の出力画像領域Pに含まれるかどうか判断
し、主要被写体が出力画像領域Pに含まれないと判断さ
れる場合、出力画像領域Pの画像サイズを変えることな
く、主要被写体の領域が出力画像領域Pに含まれるよう
に、出力画像領域Pの位置を自動的に調整するか、ある
いは、外部に発するために、オペレータに出力画像領域
Pの調整を促す情報を生成する。自動調整された出力画
像領域Pの情報または出力画像領域Pの調整を促す情報
は、セットアップ部62を介してパラメータ統合部66
に送られ、画像データ処理部52で処理された原画像の
撮影領域の画像データとともに、ディスプレイ20に送
られる。ディスプレイ20には、自動調整された出力画
像領域Pの枠が表示され、オペレータの検定に供せられ
るか、またはオペレータによる出力画像領域Pの調整を
促す情報とともに調整すべき出力画像領域Pの枠の1つ
以上の候補が表示され、オペレータの調整を促すととも
に補助する。
The output image area adjusting section 68b converts the obtained main object into an output image area P within a predetermined original image area based on the result of the extraction area extracted by the main object extracting section 68a. It is determined whether the main subject is included in the output image area P without changing the image size of the output image area P if it is determined that the main subject is not included in the output image area P. In order to automatically adjust the position of the output image area P, or to emit the information to the outside, information that prompts the operator to adjust the output image area P is generated. The information of the automatically adjusted output image area P or the information prompting the adjustment of the output image area P is transmitted to the parameter integration section 66 via the setup section 62.
Is sent to the display 20 together with the image data of the shooting area of the original image processed by the image data processing unit 52. The display 20 displays a frame of the output image area P that is automatically adjusted, and is used for the operator's verification or a frame of the output image area P to be adjusted together with information prompting the operator to adjust the output image area P. Are displayed to assist and assist the operator in making adjustments.

【0044】ここで、オペレータに出力画像領域Pの調
整を促す情報としては、ディスプレイ20に表示される
出力画像領域Pの枠の1つ以上の候補の選択を促す「文
字表示」や音声出力デバイス(図示せず)による音声出
力の他、出力画像領域Pの調整が必要であることを警告
する警告表示や警告音声出力等が挙げられるが、調整す
べき出力画像領域Pの枠候補の表示自体を出力画像領域
Pの調整を促す情報としても良い。ところで、本発明に
おいては、出力画像領域設定部68で生成された自動調
整出力画像領域Pの情報または出力画像領域Pの調整を
促す情報(以下、調整促進情報ともいう)を、セットア
ップ部62やパラメータ統合部66を介さず、直接ディ
スプレイ20に送るようにしても良い。
Here, the information that prompts the operator to adjust the output image area P includes “character display” that prompts the operator to select one or more candidates for the frame of the output image area P displayed on the display 20 or a voice output device. In addition to the audio output (not shown), a warning display that warns that the output image area P needs to be adjusted, a warning audio output, and the like can be given. May be used as information prompting the adjustment of the output image area P. By the way, in the present invention, the information of the automatic adjustment output image area P generated by the output image area setting section 68 or the information prompting the adjustment of the output image area P (hereinafter, also referred to as adjustment promotion information) is transmitted to the setup section 62 or the It may be sent directly to the display 20 without passing through the parameter integration unit 66.

【0045】次に、本発明の出力画像領域調整方法につ
いて、上述したスキャナ12および処理装置14に基づ
いて説明する。スリーブ状のフィルムFのプリント作成
を依頼されたオペレータは、フィルムFに対応するキャ
リア30をスキャナ12に装填し、キャリア30の所定
位置にフィルムF(カートリッジ)をセットし、作成す
るプリントサイズをはじめとする処理内容についての必
要な指示を入力した後、プリント作成開始を指示する。
これにより、スキャナ12の可変絞り24の絞り値やイ
メージセンサ(ラインCCDセンサ)34の蓄積時間が
プレスキャンの読取条件に応じて設定され、その後、キ
ャリア30がフィルムFをカートリッジから引き出し
て、プレスキャンに応じた速度で副走査方向に搬送し
て、プレスキャンが開始され、前述のように所定の読取
位置において、フィルムFがスリット走査されて投影光
がイメージセンサ34に結像して、フィルムFに撮影さ
れた画像がR,GおよびBに分解されて光電的に読み取
られる。
Next, the output image area adjusting method of the present invention will be described based on the above-described scanner 12 and processing device 14. The operator requested to make a print of the sleeve-shaped film F loads the carrier 30 corresponding to the film F into the scanner 12, sets the film F (cartridge) at a predetermined position of the carrier 30, and determines the print size to be formed. After inputting the necessary instruction for the processing content to be executed, the user instructs the start of print creation.
Thereby, the aperture value of the variable aperture 24 of the scanner 12 and the accumulation time of the image sensor (line CCD sensor) 34 are set according to the pre-scanning reading conditions. Thereafter, the carrier 30 pulls out the film F from the cartridge and presses the film F. The film F is conveyed in the sub-scanning direction at a speed corresponding to the can, and the pre-scan is started. At a predetermined reading position, the film F is slit-scanned, and the projection light is focused on the image sensor 34 as described above. An image captured at F is separated into R, G, and B and photoelectrically read.

【0046】プレスキャンは、フィルムFの全コマを切
目なく連続的に読み取るものであるが、所定の複数コマ
ずつ連続的にプレスキャンを行うものであってもよい。
In the prescan, all the frames of the film F are continuously read without a break, but the prescan may be continuously performed for a plurality of predetermined frames.

【0047】プレスキャンによるイメージセンサ34の
出力信号は、アンプ36で増幅されて、A/D変換器3
8に送られ、デジタル信号とされる。デジタル信号は、
処理装置14に送られ、データ処理部40で所定のデー
タ処理を施され、Log変換器42でデジタルの画像デ
ータであるプレスキャンデータとされ、プレスキャンメ
モリ44に記憶される。
The output signal of the image sensor 34 by the pre-scan is amplified by the amplifier 36 and is output from the A / D converter 3.
8 and converted into a digital signal. The digital signal is
The data is sent to the processing device 14, subjected to predetermined data processing by the data processing unit 40, converted into digital image data by the Log converter 42, and stored in the prescan memory 44.

【0048】プレスキャンメモリ44にプレスキャンデ
ータが記憶されると、条件設定部60に読み出され、セ
ットアップ部62に供給される。セットアップ部62
は、供給されたプレスキャンデータを用いて画像検出処
理を行い原画像の検出画像領域G0 を検出するととも
に、検出画像領域G0 内のプレスキャンデータから、濃
度ヒストグラムの作成や、平均濃度、LATD(大面積
透過濃度)、ハイライト(最低濃度)、シャドー(最高
濃度)等の画像特徴量の算出等を行い、加えて、必要に
応じて行われるオペレータによるキー補正部64からの
指示に応じて、グレイバランス調整等のテーブル(LU
T)や彩度補正を行うマトリクス演算(MTX)の作成
等の画像処理条件を決定する。施すべき所定の画像処理
およびその得られた画像処理条件は、パラメータ統合部
66に供給される。
When the pre-scan data is stored in the pre-scan memory 44, it is read by the condition setting section 60 and supplied to the setup section 62. Setup unit 62
Performs an image detection process using the supplied pre-scan data to detect a detection image area G 0 of the original image, and generates a density histogram, average density, and the like from the pre-scan data in the detection image area G 0 . Calculation of image feature amounts such as LATD (large area transmission density), highlight (lowest density), shadow (highest density), and the like, and in addition to instructions from the key correction unit 64 by the operator performed as necessary. According to the gray balance adjustment table (LU
T) and image processing conditions such as creation of a matrix operation (MTX) for performing saturation correction are determined. The predetermined image processing to be performed and the obtained image processing conditions are supplied to the parameter integration unit 66.

【0049】所定の種類の画像処理と統合された画像処
理条件は、プレスキャン処理部48の画像データ処理部
52に送られ、検出画像領域G0 内のプレスキャンデー
タに所定の画像処理がその画像処理条件に従って行われ
る。得られた処理済画像データは、画像データ変換部5
4に送られ、ディスプレイ20に適合した表示用画像デ
ータに画像変換され、ディスプレイ20に送られて、処
理済画像として表示される。
The predetermined type of image processing and integrated image processing conditions are sent to the image data processing unit 52 of the prescan processing section 48, predetermined image processing in the prescan data within the detected image area G 0 is the This is performed according to the image processing conditions. The obtained processed image data is sent to the image data conversion unit 5.
4, the image is converted into image data for display suitable for the display 20, sent to the display 20, and displayed as a processed image.

【0050】一方、セットアップ部で62画像検出処理
された検出画像領域G0 内のプレスキャン画像データ
は、出力画像領域設定部68に供給され、主要被写体抽
出部68aにおいて主要被写体抽出、例えば上述の顔抽
出によって、撮影被写体の顔領域が抽出される。出力画
像領域調整部68bにおいては、抽出された顔領域が原
画像の撮影領域の端にある場合、出力画像領域Pから抽
出された顔領域がすべて含まれるように、画像サイズを
変更することなく、出力画像領域Pの位置を自動調整す
る。自動調整された出力画像領域Pの情報は、セットア
ップ部62およびパラメータ統合部66を介してプレス
キャン処理部48に送られ、画像データ処理部52で画
像処理済画像データと合成され、画像データ変幹部54
でディスプレイ20の表示用データに変換され、出力画
像領域Pの枠が、画像処理された処理画像と共にディス
プレイ20に画像表示される。
On the other hand, pre-scan image data of the detected image area G 0 which is 62 image detection processing by the setup unit is supplied to the output image area setting unit 68, the main subject extracted in the main subject extracting section 68a, for example, the aforementioned By the face extraction, a face area of the photographing subject is extracted. In the output image area adjusting unit 68b, when the extracted face area is at the end of the shooting area of the original image, the image size is not changed so that all the face areas extracted from the output image area P are included. , The position of the output image area P is automatically adjusted. The information of the automatically adjusted output image area P is sent to the pre-scan processing unit 48 via the setup unit 62 and the parameter integration unit 66, and is synthesized with the image-processed image data by the image data processing unit 52, and the image data is converted. Executive 54
Is converted into display data on the display 20, and the frame of the output image area P is displayed on the display 20 together with the processed image subjected to the image processing.

【0051】例えば、図4(a)に示されるような二人
の主要被写体のうち一人の撮影人物の顔の部分が原画像
の撮影領域の右端に位置するフィルムFの原画像の場
合、図4(b)に示すように、原画像の撮影領域として
検出された検出画像領域G0 (図中、実線枠内)内に固
定された従来のプリント出力画像領域P(図中、破線枠
内)では、撮影人物の顔が一部欠けてしまうが、本発明
では、図4(c)に示すように、撮影人物の顔領域が、
出力画像領域Pの位置調整によって出力画像領域P内に
含まれる。図4(a)〜(c)を例として説明すると、
予め設定されている原画像の真中に配置される出力画像
領域Pから外れている主要被写体の抽出領域の縦方向ま
たは横方向の画素位置すべてを検出し、検出された画素
位置すべてが含まれるように、縦方向または横方向ある
いはその両方向に出力画像領域Pを移動し、出力画像領
域Pの位置を自動調整する。この場合、出力画像領域P
は検定画像領域G0を越えて位置が調整されることはな
い。
For example, in the case where the face portion of one photographed person among the two main subjects as shown in FIG. 4A is the original image of the film F located at the right end of the photographing area of the original image, FIG. As shown in FIG. 4 (b), a conventional print output image area P (indicated by a broken line in the figure) fixed within a detected image area G 0 (indicated by a solid line in the figure) detected as a photographing area of the original image. 4), the face of the photographing person is partially missing, but in the present invention, as shown in FIG.
The output image area P is included in the output image area P by adjusting the position. 4A to 4C will be described as an example.
It detects all the vertical or horizontal pixel positions of the extraction region of the main subject that is out of the output image region P arranged in the center of the preset original image, and includes all the detected pixel positions. Then, the output image area P is moved in the vertical direction and / or the horizontal direction, and the position of the output image area P is automatically adjusted. In this case, the output image area P
Will not be located beyond the test image region G 0 is adjusted.

【0052】このようにして自動調整された出力画像領
域Pが、画像処理の施されたプレスキャンによる処理画
像とともに、ディスプレイ20に表示され、オペレータ
の検定を受ける。オペレータは、ディスプレイ20に表
示された画像および自動調整された出力画像領域Pの枠
表示を見て、不適切な場合、画像処理条件や出力画像領
域Pの位置調整をキー補正部64を介してマニュアルで
調整する。調整後の画像およびプリント出力画像領域P
がディスプレイ20に表示され、オペレータが適切であ
ると判断した場合、次のコマの画像の検定に移る。オペ
レータが検定を行う際、主要被写体が端に撮影されてい
る原画像では、従来検出画像領域G0 の真中に固定され
た出力画像領域Pをオペレータがマニュアルで位置調整
する作業をする必要があったが、本実施例のように、主
要被写体を抽出して、主要被写体が出力画像領域P内に
自動的に含まれるようにプリント出力画像領域Pが移動
調整されるので、オペレータによる出力画像領域Pのマ
ニュアル調整の頻度が減少し、プリント出力の処理効率
が向上する。
The output image area P automatically adjusted in this way is displayed on the display 20 together with the processed image obtained by the pre-scan on which the image processing has been performed, and is subjected to an operator's test. The operator looks at the image displayed on the display 20 and the frame display of the automatically adjusted output image area P, and if inappropriate, adjusts the image processing conditions and the position adjustment of the output image area P via the key correction unit 64. Adjust manually. Adjusted image and print output image area P
Is displayed on the display 20, and if the operator determines that the image is appropriate, the process proceeds to the verification of the image of the next frame. When the operator performs test, the original image the main subject is photographed in the end, there the conventional detection image area output image area P which is fixed in the middle of G 0 is necessary to work the operator to adjust the position manually However, as in the present embodiment, the main subject is extracted and the print output image area P is moved and adjusted so that the main subject is automatically included in the output image area P. The frequency of manual adjustment of P is reduced, and the processing efficiency of print output is improved.

【0053】なお、出力画像領域設定部68の出力画像
領域調整部68bにおいて、出力画像領域Pが自動調整
されるのではなく、出力画像領域Pの調整を促す情報が
生成される場合には、この調整促進情報をディスプレイ
20に表示してもよいし、音声として発しても良い。例
えば、図4(d)に示すように、ディスプレイ20の表
示画面20aに検出画像領域G0 とその内の原画像とを
表示するとともに、主要被写体が全部含まれていない無
調整の出力画像領域枠P0 と主要被写体が含まれるが調
整方法が異なる調整後の出力画像領域枠P1 とP2 とを
出力画像領域Pの候補として同時に表示し、さらに、オ
ペレータに出力画像領域Pの調整を促すために、調整し
ない無調整枠P0 も含めて、出力画像領域枠P1
2 、P0 の内のいずれかを選択させるために、「選択
してください」という調整促進情報Qを表示画面20a
内に表示したり、音声出力するのが好ましい。
When the output image area adjusting section 68b of the output image area setting section 68 does not automatically adjust the output image area P but generates information prompting the adjustment of the output image area P, This adjustment promotion information may be displayed on the display 20 or may be emitted as sound. For example, as shown in FIG. 4 (d), and displays the the detected image area G 0 and the original image of them on the display screen 20a of the display 20, the output image area of the unregulated main subject is not included all a frame P 0 contains the main subject is simultaneously display the output image area frame P 1 and P 2 of the adjusted adjustment method is different as candidates for the output image area P, further, the adjustment of the output image area P operator In order to prompt, the output image area frame P 1 , including the unadjusted frame P 0 that is not adjusted,
In order to select one of P 2 and P 0 , the adjustment promotion information Q of “Please select” is displayed on the display screen 20a.
It is preferable to display the message in the speaker or output the sound.

【0054】なお、オペレータに出力画像領域Pの調整
を促す情報を発する方法は、上述の方法に限定されず、
オペレータに注意を喚起できる方法であれば、どのよう
な方法であっても良い。例えば、表示画面20aの検出
画像領域G0 内には、単に、主要被写体が全部含まれて
いないことを示す無調整の出力画像領域枠P0 を表示
し、出力画像領域枠P0 を点滅させたり、目立つように
高輝度で表示することを調整促進情報とし、あるいは調
整促進情報として「調整してください」や「主要被写体
が切れています」という警告などを表示画面20aに表
示し、あるいは音声出力しても良い。こうすることによ
り、キーボード18aやマウス18bや補正キーなどを
使ってオペレータに出力画像領域枠Pの調整や設定を促
すことができる。その結果、オペレータが検定を行う
際、オペレータによる出力画像領域Pのマニュアル調整
を極めて容易化にすることでき、オペレータによる検定
の負担を軽減し、プリント作成の処理効率を向上させる
ことができる。
The method for issuing information urging the operator to adjust the output image area P is not limited to the above-described method.
Any method may be used as long as it can call attention to the operator. For example, in the detected image area G 0 of the display screen 20a, merely displays the output image area frame P 0 unregulated indicating that the main object is not included entirely to blink output image area frame P 0 Or display with high brightness so as to be conspicuous is displayed as the adjustment promotion information, or as the adjustment promotion information, a warning such as “Please adjust” or “The main subject is cut off” is displayed on the display screen 20a, May be output. In this manner, the operator can be prompted to adjust or set the output image area frame P using the keyboard 18a, the mouse 18b, the correction key, and the like. As a result, when the operator performs verification, manual adjustment of the output image area P by the operator can be extremely facilitated, the burden of verification by the operator can be reduced, and the processing efficiency of print creation can be improved.

【0055】すべてのプレスキャンされた画像につい
て、オペレータの検定が終了すると、ファインスキャン
が開始される。各コマ毎の画像処理条件および出力画像
領域Pの位置情報がファインスキャン処理部50に送ら
れる。
When the operator's verification is completed for all pre-scanned images, fine scan is started. The image processing conditions and the position information of the output image area P for each frame are sent to the fine scan processing unit 50.

【0056】ファインスキャンおよびその後の画像処理
は、プレスキャンと異なり、原画像をスキャナ12で高
解像度で読み取り、ファインスキャン処理部50でプレ
スキャン画像で定められた画像処理条件で画像処理を行
い、調整された出力画像領域P内の画像データを出力画
像データとして取得する工程である。まず、プレスキャ
ンが終了した際、フィルムFは最後の画像のコマまでフ
ィルムカートリッジ等から引き出されており、ファイン
スキャンはその状態からフィルムFの巻き戻しを利用し
て、画像のコマの読み取りが行われる。スキャナ12か
ら出力されたR,GおよびBの各出力信号は、A/D
(アナログ/デジタル)変換、Log変換、DCオフセ
ット補正、暗時補正、シェーディング補正等を行い、デ
ジタルの入力画像データとされ、ファインスキャンデー
タはファインスキャンメモリ46に記憶(格納)され
る。
In the fine scan and the subsequent image processing, unlike the pre-scan, the original image is read at a high resolution by the scanner 12, and the fine scan processing unit 50 performs image processing under the image processing conditions determined by the pre-scan image. This is a step of acquiring image data in the adjusted output image area P as output image data. First, when the pre-scan is completed, the film F has been pulled out of the film cartridge or the like up to the last frame of the image. In the fine scan, the frame of the image is read using the rewinding of the film F from that state. Will be The R, G and B output signals output from the scanner 12 are A / D
(Analog / Digital) conversion, Log conversion, DC offset correction, darkness correction, shading correction, and the like are performed to obtain digital input image data, and the fine scan data is stored (stored) in the fine scan memory 46.

【0057】ファインスキャンメモリ46に記憶された
ファインスキャンデータは、画像処理部56に送られ、
画像処理条件に基づいて、グレイバランス調整などのテ
ーブル(LUT)や彩度補正を行うマトリクス演算(M
TX)による各種の画像処理や、撮影レンズに起因する
収差補正が行われ、その後、所望のプリントサイズに適
合するように電子変倍処理を行う。さらに、シャープネ
ス処理や覆い焼き処理等を必要に応じて行い、その後、
出力画像データとして、画像データ変換部58に送られ
る。ここで、出力画像データは、出力画像領域P内に含
まれるファインスキャンデータのみが取り出される。
The fine scan data stored in the fine scan memory 46 is sent to the image processing unit 56,
Based on image processing conditions, a table (LUT) such as gray balance adjustment and a matrix operation (M
Various image processing by TX) and aberration correction caused by the photographing lens are performed, and then electronic scaling processing is performed so as to conform to a desired print size. Further, sharpness processing, dodging processing, etc. are performed as necessary, and thereafter,
The image data is sent to the image data conversion unit 58 as output image data. Here, as the output image data, only the fine scan data included in the output image area P is extracted.

【0058】画像データ変換部58において、プリンタ
に適合したプリント出力用のデータに画像変換され、プ
リント出力画像領域P内の画像データがプリンタ16に
出力画像データとして送られる。なお、画像データ変換
部58において、画像データ記録媒体19aへの記録に
適した出力用画像データに変換して、ドライバ19bに
出力し、画像データ記録媒体19aに記録しても良い
し、ネットワークで配信可能なフォーマットに変換し
て、送受信デバイス21からネットワークを介して配信
しても良いことはもちろんである。
The image data converter 58 converts the image into print output data suitable for the printer, and sends the image data in the print output image area P to the printer 16 as output image data. The image data conversion unit 58 may convert the image data into output image data suitable for recording on the image data recording medium 19a, output the converted image data to the driver 19b, and record the image data on the image data recording medium 19a. It is needless to say that the data may be converted into a format that can be distributed and distributed from the transmitting / receiving device 21 via the network.

【0059】プリンタ16は、供給された画像データに
応じて感光材料(印画紙)を露光して潜像を記録する記
録装置(焼付装置)と、露光材の感光材料に所定の処理
を施してプリントとして出力するプロセサ(現像装置)
とから構成される。記録装置では、感光材料をプリント
に応じた所定長に切断した後、感光材料の分光感度特性
に応じたR露光、G露光、B露光の3種のビームを画像
処理装置14から出力された画像データに応じて変調し
て主走査方向に偏向するとともに、主走査方向と直交す
る副走査方向に感光材料を搬送することにより、前記光
ビームで感光材料を2次元的に走査露光して潜像を記録
し、プロセサに供給する。感光材料を受け取ったプロセ
サは、発色現象、漂白定着、水洗等の所定の湿式現像処
理を行い、乾燥してプリントとしてフィルム1本分等の
所定単位に仕分けして集積する。
The printer 16 exposes a photosensitive material (printing paper) in accordance with the supplied image data to record a latent image, and performs a predetermined process on the photosensitive material as an exposure material. Processor (developing device) to output as print
It is composed of The recording device cuts the photosensitive material into a predetermined length corresponding to the print, and then outputs three types of beams, R exposure, G exposure, and B exposure, according to the spectral sensitivity characteristics of the photosensitive material. The light beam is modulated in accordance with the data and deflected in the main scanning direction, and the photosensitive material is conveyed in the sub-scanning direction orthogonal to the main scanning direction. And supply it to the processor. The processor that has received the photosensitive material performs a predetermined wet developing process such as color development, bleach-fixing, and washing with water, and then dries and sorts the prints into predetermined units such as one film to accumulate.

【0060】スキャナ12および処理装置14に基づい
た出力画像領域調整方法は、基本的に、以上のように説
明される。上記実施例の出力画像領域調整は、出力画像
領域設定部68において、撮影された主要被写体を抽出
して、主要被写体の領域に応じて出力画像領域Pを自動
調整するもの、または出力画像領域Pの調整促進情報を
生成し、発するものであるが、図3(b)に示されるよ
うに、指写り抽出部68cおよび出力画像領域調整部6
8dで構成し、指写り領域を抽出して、この抽出された
領域が出力画像領域P内に可能な限り含まれないように
出力画像領域Pを自動調整するものであってもよいし、
または出力画像領域Pの調整促進情報を生成し、発する
ものであってもよい。以下では、出力画像領域Pの自動
調整を代表例として説明する。
The output image area adjusting method based on the scanner 12 and the processing device 14 is basically described as above. The output image area adjustment of the above embodiment is performed by extracting the photographed main subject in the output image area setting unit 68 and automatically adjusting the output image area P according to the area of the main subject, or the output image area P 3B, and generates and emits the adjustment promotion information. As shown in FIG. 3B, the finger reflection extraction unit 68c and the output image area adjustment unit 6
8d, a finger reflection region may be extracted, and the output image region P may be automatically adjusted so that the extracted region is not included as much as possible in the output image region P.
Alternatively, adjustment promotion information for the output image area P may be generated and issued. Hereinafter, the automatic adjustment of the output image area P will be described as a representative example.

【0061】この場合、例えば図5(a)に示される指
写り領域R0 を含む原画像では、出力画像領域Pが画像
サイズを変えることなく、出力画像領域P内に含まれる
指写り領域R0 が最小となるように、出力画像領域Pを
移動して位置調整し、位置調整された出力画像領域Pの
枠が、画像処理の施されたプレスキャン画像とともにデ
ィスプレイ20に表示される。ここで、指写り領域の抽
出および出力画像領域Pの調整は、指写り抽出部68c
および出力画像領域調整部68dで行われ、以下の方法
で行われる。
In this case, for example, in the original image including the finger image area R 0 shown in FIG. 5A, the output image area P is not changed in image size, and the finger image area R included in the output image area P is not changed. The position of the output image area P is adjusted by moving the output image area P so that 0 is minimized, and the frame of the output image area P whose position has been adjusted is displayed on the display 20 together with the prescanned image subjected to the image processing. Here, the extraction of the finger reflection region and the adjustment of the output image region P are performed by the finger reflection extraction unit 68c.
This is performed by the output image area adjusting unit 68d, and is performed by the following method.

【0062】まず、原画像の画像領域として検出された
検出画像領域G0 のエッジから原画像の画像領域内部に
向かって連続する領域をクラスタ分割等による公知の手
法、例えばK平均アルゴリズムを用いて抽出する。例え
ばR、GおよびBの各画素の画像濃度を座標とする三次
元の特徴空間を求め、K平均アルゴリズムを用いて、ク
ラスタ分割する。指写り画像における指の領域は、検出
画像領域G0 のエッジより連続した領域であることか
ら、抽出された各クラスタの内、検出画像領域G0 のエ
ッジから領域が連続して伸びるクラスタを選ぶ領域を抽
出する。あるいは、画像濃度値が隣接する画素間で所定
値範囲内にあり、画像コマのエッジより連続して伸びる
領域を抽出する。また、上記クラスタ分割によって得ら
れたクラスタについて、画像濃度値が隣接する画素間で
所定値範囲内にあるクラスタを選び領域を抽出してもよ
い。なお、これらの方法に用いられるプレスキャンデー
タは、ローパスフィルタで処理した画像データであるの
が好ましい。
[0062] First, a known method a region continuous toward the image area inside the original image from the edge of the detected image area G 0 which is detected as an image area of the original image by the cluster splits, for example using a K-means algorithm Extract. For example, a three-dimensional feature space having coordinates of image densities of R, G, and B pixels is obtained, and is divided into clusters using a K-means algorithm. Area of the finger in the finger-through image, because it is continuous from the edge of the detected image area G 0 region, among the extracted cluster, choose a cluster area from the edge of the detected image area G 0 is extending continuously Extract the region. Alternatively, an area where the image density value is within a predetermined value range between adjacent pixels and extends continuously from the edge of the image frame is extracted. Further, with respect to the clusters obtained by the above-described cluster division, a cluster whose image density value is within a predetermined value range between adjacent pixels may be selected to extract a region. The prescan data used in these methods is preferably image data processed by a low-pass filter.

【0063】次に、抽出された複数の領域についての色
相の平均値が所定の範囲内、すなわち指の肌色部分の色
相の範囲内に有るか判断して、抽出された領域を絞る。
色相については、RGB空間からL* * * 色空間に
変換して、色相角tan-1(b* /a* )を求めること
によって行われる。さらに、絞られた領域の平均濃度値
が、ストロボ撮影の場合、所定値以上であるか、ストロ
ボ撮影でない場合、平均濃度値が所定値以下であるか判
断して、領域を絞る。例えば、フィルムFがネガフィル
ムの場合、ストロボ撮影ではネガフィルム上の濃度値が
2.0以上であり、ストロボ撮影でない場合は、ネガフ
ィルム上の濃度値が0.3以下であるか判断する。次
に、絞られた領域の平均濃度と、それ以外の画像領域の
平均濃度との差が所定値以上であるか判断して領域をさ
らに絞る。例えば、フィルムFがネガフィルムの場合、
ストロボ撮影ではネガフィルム上の濃度値が1.0以上
であり、ストロボ撮影でない場合、ネガフィルム上の濃
度値が0.3以上である。次に、さらに、絞られた領域
の画像濃度値の分散が所定値以下であるか判断して、判
断に合致する領域に絞る。最後に、絞られた領域の内、
エッジ形状が指の形状に近似する形状であるか形状解析
を行って判断し、判断に合致する領域を指領域と判断す
る。形状解析は、上述した顔抽出方法における顔輪郭・
円形状抽出法等で行われるエッジ方向の形状解析と同様
の方法で行われる。
Next, it is determined whether or not the average value of the hues of the plurality of extracted regions is within a predetermined range, that is, within the range of the hue of the skin color portion of the finger, and the extracted regions are narrowed down.
The hue is obtained by converting the RGB space to the L * a * b * color space and calculating the hue angle tan -1 (b * / a * ). Further, it is determined whether or not the average density value of the narrowed area is equal to or more than a predetermined value in the case of stroboscopic photography, and whether the average density value is equal to or less than the predetermined value in the case of non-flash photography. For example, when the film F is a negative film, it is determined whether or not the density value on the negative film is 2.0 or more in strobe shooting, and if not, the density value on the negative film is 0.3 or less. Next, it is determined whether the difference between the average density of the narrowed area and the average density of the other image areas is equal to or greater than a predetermined value, and the area is further narrowed. For example, when the film F is a negative film,
In the case of flash photography, the density value on the negative film is 1.0 or more, and in the case of not flash photography, the density value on the negative film is 0.3 or more. Next, it is determined whether the variance of the image density value of the narrowed area is equal to or smaller than a predetermined value, and the area is narrowed down to the area that matches the determination. Finally, in the narrowed area,
It is determined by performing shape analysis whether the edge shape is similar to the shape of the finger, and an area that matches the determination is determined as a finger area. The shape analysis is performed using the face contour /
This is performed by a method similar to the shape analysis in the edge direction performed by the circular shape extraction method or the like.

【0064】このように、指写り抽出における指写り領
域の抽出は、上記各ステップにおいて複数の領域の中か
ら領域を絞ることによって行う。なお、本発明における
指写り抽出については、上記各ステップに限定されず、
各ステップにおける判断手法を適宜追加、変更してもよ
い。
As described above, the extraction of the finger image region in the finger image extraction is performed by narrowing the region from the plurality of regions in each of the above steps. Note that the finger image extraction in the present invention is not limited to the above steps,
The determination method in each step may be appropriately added or changed.

【0065】このようにして指写り抽出部68cで抽出
された指写り領域の情報は、出力画像領域調整部68b
に送られ、出力画像領域Pの位置調整が行われる。すな
わち、抽出された指写り領域R0 のうち、出力画像領域
P内に位置する指写り領域R0 の画像縦方向または横方
向の画素位置を検出し、検出された画素位置が出力画像
領域Pに含まれないように、あるいは、出力画像領域P
内に含まれる指写り領域R0 を最小とするように画像縦
方向または横方向あるいはその両方向に出力画像領域P
を移動し、出力画像領域Pの位置を調整する。この場
合、出力画像領域Pは検定画像領域G0 を越えて位置が
調整されることはない。
The information of the finger image area extracted by the finger image extracting section 68c in this manner is output to the output image area adjusting section 68b.
And the position of the output image area P is adjusted. That is, of the extracted finger through area R 0, the output image area image vertical or horizontal direction of the pixel position of the finger-through area R 0 is located to detect in the P, the detected pixel position the output image area P In the output image area P
In the vertical or horizontal direction or both directions of the image, the output image area P is set so that the finger reflection area R 0 included in the image is minimized.
To adjust the position of the output image area P. In this case, the output image area P is never located beyond the test image region G 0 is adjusted.

【0066】例えば、図5(a)のように、原画像の右
端に指写り領域R0 が抽出され、予め設定されている原
画像の真中に配置される出力画像領域P内に含まれる指
写り領域R0 を検出する。従来、図5(b)に示すよう
に、検出画像領域G0 の真中に出力画像領域Pが固定さ
れているため、出力画像領域P内の右端部付近に指写り
領域R0 が比較的多く含まれる。しかし、本発明では、
図5(c)のように、出力画像領域P内に含まれる指写
り領域R0 を最小とする出力画像領域Pの位置が自動的
に求められて調整される。
For example, as shown in FIG. 5A, a finger image region R 0 is extracted at the right end of the original image, and the finger included in the output image region P arranged in the center of the preset original image. The reflection area R0 is detected. Conventionally, as shown in FIG. 5B, since the output image area P is fixed in the middle of the detection image area G 0 , the finger image area R 0 is relatively large near the right end in the output image area P. included. However, in the present invention,
As shown in FIG. 5C, the position of the output image region P that minimizes the finger image region R0 included in the output image region P is automatically obtained and adjusted.

【0067】このように、指写りを起こした原画像に対
して、プリント出力の対象となる出力画像領域P内にお
ける指写り領域が最小となるように、出力画像領域Pが
自動的に位置調整されるので、オペレータによる出力画
像領域Pのマニュアル調整の頻度が減少し、プリント出
力の処理効率が向上する。さらに、指写り領域が出力画
像領域P内において最小となるので、原画像の指写りの
影響を軽減することができ、プリントや再現画像の付加
価値を向上させることができる。
As described above, the position of the output image area P is automatically adjusted with respect to the original image in which the finger image is caused so that the finger image area in the output image area P to be printed is minimized. Therefore, the frequency of manual adjustment of the output image area P by the operator is reduced, and the processing efficiency of print output is improved. Further, since the finger image area is minimized in the output image area P, the influence of the finger image of the original image can be reduced, and the added value of the print or the reproduced image can be improved.

【0068】上記実施例の出力画像領域調整は、指写り
抽出部68cにおいて指写り領域を抽出し、この抽出領
域に応じて出力画像領域調整部68dにおいて、出力画
像領域Pを自動調整する、または出力画像領域Pの調整
促進情報を発するものであるが、図3(c)に示される
ように、指写り抽出部68cの替わりにカブリ領域抽出
部68eを用い、カブリ領域の抽出を行ってもよい。
In the output image area adjustment of the above embodiment, the finger image extraction area 68c extracts the finger image area, and the output image area adjustment section 68d automatically adjusts the output image area P according to the extracted area. Although the adjustment promotion information of the output image area P is issued, as shown in FIG. 3C, the fog area can be extracted by using the fog area extraction unit 68e instead of the finger image extraction unit 68c. Good.

【0069】この場合、カブリ領域抽出部68eで行う
カブリ領域の抽出は、以下の方法で行う。まず、原画像
の画像領域として検出された検出画像領域G0 のエッジ
から原画像の画像領域内部に向かって連続する領域をク
ラスタ分割等による公知の手法、例えばK平均アルゴリ
ズムを用いて抽出する。例えば、R、GおよびBの各画
素の画像濃度を座標とする三次元の特徴空間を求め、K
平均アルゴリズムを用いて、クラスタ分割する。カブリ
領域は、検出画像領域G0 のエッジより連続した領域で
あることから、抽出された各クラスタの内、検出画像領
域G0 のエッジから領域が連続して伸びるクラスタを選
び領域を抽出する。あるいは、画像濃度値が隣接する画
素間で所定値範囲内にあり、画像コマのエッジより連続
して伸びる領域を抽出する。また、上記クラスタ分割に
よって得られたクラスタの中から、画像濃度値が隣接す
る画素間で所定値範囲内にあるクラスタを選びクラスタ
を抽出してもよい。なお、これらの方法に用いられるプ
レスキャンデータは、ローパスフィルタで処理した画像
データであることが好ましい。
In this case, the fog area extraction performed by the fog area extraction unit 68e is performed by the following method. First, a known method a region continuous toward the image area inside the original image from the edge of the detected image area G 0 which is detected as an image area of the original image by the cluster splits, for example extracted using K-means algorithm. For example, a three-dimensional feature space having the image density of each pixel of R, G and B as coordinates is obtained, and K
Cluster division is performed using an averaging algorithm. Fog area, because it is continuous from the edge of the detected image area G 0 region, among the clusters are extracted, extracts an area to select the cluster area from the edge of the detected image area G 0 is extending continuously. Alternatively, an area where the image density value is within a predetermined value range between adjacent pixels and extends continuously from the edge of the image frame is extracted. Alternatively, a cluster whose image density value is within a predetermined value range between adjacent pixels may be selected from the clusters obtained by the above-described cluster division to extract the cluster. The pre-scan data used in these methods is preferably image data processed by a low-pass filter.

【0070】次に、抽出された複数の領域の平均濃度値
が、所定値以上、例えばフィルムFがネガフィルムの場
合、ネガフィルム上の濃度値が2.0以上であるか判断
し、抽出された複数の領域の中から判断に合致した領域
に絞る。次に、絞られた領域の平均濃度と、それ以外の
画像領域の平均濃度との差が所定置以上であるか判断し
て領域をさらに絞る。例えば、フィルムFがネガフィル
ムの場合、ネガフィルム上の濃度値が1.0以上である
か判断する。続いて、さらに、絞られた領域の画像濃度
値の分散が所定値以下であるか判断し、判断に合致する
領域に絞る。最後に、この絞られた領域近傍の非撮影領
域(検出画像領域G0 の外側のフィルムベース部の領
域)に位置し、画像濃度値が上記絞られた領域の平均濃
度値に対して所定値以内にある画素の占める面積が所定
値以上であるか判断し、判断に合致した領域をカブリ領
域とする。このようにカブリ領域抽出は、上記各ステッ
プにおいて領域を絞ることによって行う。なお、本発明
におけるカブリ領域抽出については、上記各ステップに
限定されず、各ステップにおける判断手法を適宜追加、
変更してもよい。
Next, it is determined whether or not the average density value of the plurality of extracted areas is equal to or more than a predetermined value, for example, when the film F is a negative film, the density value on the negative film is 2.0 or more. From a plurality of areas that match the judgment. Next, it is determined whether the difference between the average density of the narrowed area and the average density of the other image areas is equal to or greater than a predetermined value, and the area is further narrowed. For example, when the film F is a negative film, it is determined whether the density value on the negative film is 1.0 or more. Subsequently, it is determined whether the variance of the image density value of the narrowed area is equal to or less than a predetermined value, and the area is narrowed down to the area that matches the determination. Finally, a predetermined value with respect to non-shooting located in a region (region outside of the film base of the detected image area G 0), the average density value of the area where the image density value is throttled above the narrowed area near It is determined whether the area occupied by the pixels within the predetermined range is equal to or larger than a predetermined value, and a region that matches the determination is determined as a fog region. As described above, the fog area extraction is performed by narrowing the area in each of the above steps. Note that the fog region extraction in the present invention is not limited to the above steps, and a judgment method in each step is appropriately added.
May be changed.

【0071】抽出されたカブリ領域は、上記指写り領域
0 と同様に、出力画像領域調整部68dにおいて、出
力画像領域Pに含まれるカブリ領域を最小にするように
出力画像領域Pの画像サイズを維持したまま、出力画像
領域Pはその位置を移動することによって自動調整され
る、または出力画像領域Pの調整促進情報が生成され
る。調整された出力画像領域Pの枠のデータが作成され
て、出力画像領域Pの位置情報として、または出力画像
領域Pの調整促進情報がデータ化されて、セットアップ
部62およびパラメータ統合部66を介して、ディスプ
レイ20に送られて、出力画像領域Pの枠や調整促進情
報が表示または音声出力される。
The extracted fog area is subjected to the image size adjustment of the output image area P in the output image area adjusting section 68d so that the fog area included in the output image area P is minimized, similarly to the finger image area R0. Is maintained, the output image area P is automatically adjusted by moving its position, or adjustment promotion information of the output image area P is generated. The data of the adjusted frame of the output image area P is created, and the position promotion information of the output image area P or the adjustment promotion information of the output image area P is converted into data. Then, it is sent to the display 20, and the frame of the output image area P and the adjustment promotion information are displayed or output as audio.

【0072】なお、本発明における主要被写体抽出、指
写り抽出およびカブリ領域抽出の各領域抽出処理は、上
記各実施例に限定されず、種々の自動抽出処理を適用す
ることができるし、また、半自動領域抽出処理を適用し
ても良い。例えば、主要被写体領域や指写り領域やカブ
リ領域などの各領域内の位置を、オペレータの補助情報
としてキーボード18aやマウス18bで指定し、指定
された位置の画像データを用いて、主要被写体領域や指
写り領域やカブリ領域などの各領域を自動抽出しても良
い。特に、検定画面に表示された原画像の再現画像や、
その検出画像領域G0 や、出力画像領域Pの調整促進情
報や出力画像領域Pの候補として表示された枠P1 、P
2 およびP0 などを使って、出力画像領域Pの半自動調
整や再現画像の検定を行う場合には、主要被写体領域や
指写り領域やカブリ領域などの各領域内の位置の指定は
容易であるので好ましい。こうすることにより、主要被
写体抽出、指写り抽出およびカブリ領域抽出の各領域抽
出の精度を大幅に向上させることができる。
The area extraction processing of the main subject extraction, finger image extraction and fog area extraction in the present invention is not limited to the above embodiments, and various automatic extraction processings can be applied. Semi-automatic region extraction processing may be applied. For example, a position in each area such as a main subject area, a finger image area, and a fog area is designated by the keyboard 18a or the mouse 18b as auxiliary information of the operator, and the image data of the designated position is used to specify the main subject area or the position. Each region such as a finger image region and a fog region may be automatically extracted. In particular, a reproduction image of the original image displayed on the test screen,
The detection image area G 0 , the adjustment promotion information of the output image area P, and the frames P 1 , P displayed as candidates for the output image area P
When semi-automatic adjustment of the output image area P or verification of a reproduced image is performed using 2 and P 0, etc., it is easy to specify a position in each area such as a main subject area, a finger image area, and a fog area. It is preferred. By doing so, it is possible to greatly improve the accuracy of each area extraction of the main subject extraction, finger image extraction, and fog area extraction.

【0073】また、出力画像領域Pは、主要被写体抽出
または指写り抽出またはカブリ領域抽出によって抽出さ
れた領域に応じて自動調整される、または半自動調整の
ための調整促進情報が生成されるものであるが、主要被
写体抽出、指写り抽出およびカブリ領域抽出のうち複数
の抽出を行って結果に応じて出力画像領域Pを調整して
もよく、その際、抽出の順番や出力画像領域Pの調整の
際の優先順位は、オペレータが事前にオペレータの補助
情報として、入力または設定することができるのが好ま
しい。例えば、図3(d)に示すように、出力画像領域
設定部68は、主要被写体抽出部68a、指写り抽出部
68cおよびカブリ領域抽出部68eと、これらと接続
される出力画像領域調整部68fとを備えるものであっ
ても良い。ここで、主要被写体抽出部68a、指写り抽
出部68cおよびカブリ領域抽出部68eは、それぞれ
上述の抽出処理を行うものであり、それぞれの抽出処理
を並列(パイプライン)処理とするのが好ましいが、予
め設定された優先順位で行うものであっても良い。この
優先順位は、オペレータの補助情報として、オペレータ
によって予め入力または設定することができるのが好ま
しい。
The output image area P is automatically adjusted according to the area extracted by extracting the main subject, extracting the finger image, or extracting the fog area, or generates adjustment promotion information for semi-automatic adjustment. However, a plurality of extractions of main subject extraction, finger reflection extraction, and fog area extraction may be performed, and the output image area P may be adjusted according to the result. In this case, the order of extraction and adjustment of the output image area P may be adjusted. In this case, it is preferable that the priority can be input or set by the operator in advance as auxiliary information of the operator. For example, as shown in FIG. 3D, the output image area setting section 68 includes a main subject extracting section 68a, a finger image extracting section 68c, a fog area extracting section 68e, and an output image area adjusting section 68f connected thereto. May be provided. Here, the main subject extracting section 68a, the finger image extracting section 68c, and the fogging area extracting section 68e respectively perform the above-described extracting processing, and it is preferable that the respective extracting processing be a parallel (pipeline) processing. , May be performed in a preset priority order. It is preferable that the priority can be input or set in advance by the operator as auxiliary information of the operator.

【0074】また、出力画像領域調整部68fは、これ
らの主要被写体抽出、指写り抽出およびカブリ領域抽出
の結果をオペレータによって予め設定された優先順位で
自動調整する、またはその設定優先順位で出力画像領域
Pの枠や調整促進情報を表示または音声出力するもので
あるのが好ましい。なお、出力画像領域調整部68f
も、上述の出力画像領域調整部68bおよび68dと同
様に、主要被写体抽出、指写り抽出およびカブリ領域抽
出の結果に基づいて、出力画像領域Pの自動調整をす
る、もしくは半自動調整のための調整促進情報を発生す
る。また、本発明における出力画像領域設定部68の構
成は、上述した図3(a)〜(d)に示す実施例に限定
されず、図3(a)〜(c)に示す3種の出力画像領域
設定部68を所定の順序で、直列に接続(カスケード接
続)したものであっても良いし、並列に接続したもので
あっても良い。
The output image area adjusting section 68f automatically adjusts the results of the main subject extraction, finger image extraction and fog area extraction according to a priority set in advance by the operator, or the output image according to the set priority. It is preferable that the frame of the area P and the adjustment promotion information be displayed or output as audio. The output image area adjustment unit 68f
Similarly to the above-described output image area adjustment units 68b and 68d, the output image area P is automatically adjusted based on the results of main subject extraction, finger image extraction, and fog area extraction, or adjustment for semi-automatic adjustment. Generate promotional information. Further, the configuration of the output image area setting section 68 in the present invention is not limited to the embodiment shown in FIGS. 3A to 3D described above, and the three types of output shown in FIGS. The image area setting sections 68 may be connected in series in a predetermined order (cascade connection) or may be connected in parallel.

【0075】また、出力画像領域調整部68bや68d
や68fは、いずれも出力画像領域Pの画像サイズを変
えることなく、出力画像領域Pの位置を自動調整する、
または半自動調整するための調整促進情報を生成するも
のであるが、主要被写体抽出部68aや指写り抽出部6
8cやカブリ抽出部68eで抽出された領域に応じて位
置を調整すると共にさらに、プリント出力画像領域Pの
画像サイズを変化させた修正プリント出力画像領域(以
下、修正出力画像領域という)P' を定めてもよい。こ
の場合、修正出力画像領域P' の縦横比は、出力画像領
域Pの縦横比と同じとするのが好ましい。同じ画像サイ
ズのプリント画像を得るために、修正出力画像領域P'
の画像データを出力画像領域Pと異なる電子変倍係数
(変倍率)で電子変倍処理をする必要が有るが、修正出
力画像領域P' の縦横比が出力画像領域Pの縦横比と異
なると、修正出力画像領域P' 内の一部を切り落として
プリント出力しなければならず、修正出力画像領域P'
全体をプリント出力することができなくなるためであ
る。位置が調整され、画像サイズも変更された修正出力
画像領域P’は、画像サイズの変化しない出力画像領域
Pの画像データに対して施す所定の電子変倍処理に比べ
て画像サイズの変化した分、変倍率が変更されて電子変
倍処理が施される。
The output image area adjusting sections 68b and 68d
And 68f automatically adjust the position of the output image area P without changing the image size of the output image area P.
Alternatively, it generates the adjustment promotion information for semi-automatic adjustment.
8c and the corrected print output image area (hereinafter referred to as a corrected output image area) P 'obtained by changing the image size of the print output image area P while adjusting the position according to the area extracted by the fog extraction unit 68e. May be determined. In this case, it is preferable that the aspect ratio of the corrected output image area P ′ is the same as the aspect ratio of the output image area P. In order to obtain a print image of the same image size, the modified output image area P ′
It is necessary to electronically scale the image data with an electronic scaling factor (magnification) different from that of the output image area P. However, if the aspect ratio of the corrected output image area P ′ is different from the aspect ratio of the output image area P, , A part of the corrected output image area P 'must be cut off and printed out, and the corrected output image area P'
This is because it becomes impossible to print out the entirety. The corrected output image area P ′ whose position has been adjusted and the image size has been changed has an amount corresponding to the change in the image size as compared with the predetermined electronic scaling process performed on the image data of the output image area P in which the image size does not change. Then, the magnification is changed and the electronic magnification processing is performed.

【0076】図6(a)および(b)にその一例を示す
が、図6(a)のように、検出画像領域G0 の真中に予
め設定される出力画像領域P内に指写り領域R0 の一部
が含まれる場合、図6(b)に示すように、出力画像領
域P内に含まれる指写り領域R0 が最小となるように、
検出画像領域G0 の範囲内で出力画像領域Pの位置を調
整し、さらに画像の縦横比を変えることなく、出力画像
領域Pの画像サイズを変更して、完全に指写り画像領域
0 が含まれないように修正出力画像領域P'を作成す
る。修正出力画像領域P’は、画像サイズが出力画像領
域Pと異なるため、検定後、この画像サイズの情報が、
修正出力画像領域P' の位置情報とともに、セットアッ
プ部62およびパラメータ統合部66を介してファイン
スキャン処理部50に送られる。こうして、画像データ
処理部56で所望のプリント出力サイズに応じた、変更
された変倍率による電子変倍処理が施される。
[0076] Although an example of which is shown in FIGS. 6 (a) and (b), as shown in FIG. 6 (a), the finger-through area in the output image area P that is previously set in the middle of the detected image area G 0 R When a part of 0 is included, as shown in FIG. 6B, the finger image region R 0 included in the output image region P is minimized.
By adjusting the position of the output image area P within the range of the detection image area G 0 and further changing the image size of the output image area P without changing the aspect ratio of the image, the finger image area R 0 can be completely removed. A corrected output image area P ′ is created so as not to be included. Since the corrected output image area P ′ has a different image size from the output image area P, after the verification, the information of this image size is
The information is sent to the fine scan processing section 50 via the setup section 62 and the parameter integration section 66 together with the position information of the corrected output image area P '. In this way, the image data processing unit 56 performs the electronic scaling process with the changed scaling ratio according to the desired print output size.

【0077】なお、極めて高い画質が要求される場合
や、出力プリントサイズが大きい場合には、図6(b)
に示す例のように、電子変倍処理の変倍率を変更したた
め、すなわち修正出力画像領域P' と出力画像領域P
(図6(b)参照)との比率だけ大きくしたために生じ
るわずかな画質の低下も、問題となることがある。この
ような場合には、電子変倍処理の変倍率を変更せずに、
スキャナ12の結像レンズユニット32の光学倍率を変
更して(大きくして)、修正出力画像領域P' を中心と
する画像が出力画像領域Pの大きさとなるように、イメ
ージセンサ34に結像させてファインスキャンを行い、
修正出力画像領域P' の画像を光電的に読み取るように
しても良い。こうすることにより、ファインスキャン後
の画像処理装置14の画像処理、特に、ファインスキャ
ン処理部50による画像処理を変更することなく、画質
の劣化の全くない高品質の画像を得ることができる。
When extremely high image quality is required or when the output print size is large, FIG.
As shown in the example shown in FIG. 7, the magnification of the electronic magnification processing is changed, that is, the corrected output image area P ′ and the output image area P
(See FIG. 6B.) A slight decrease in image quality caused by increasing the ratio by the ratio may also be a problem. In such a case, without changing the magnification of the electronic magnification processing,
The optical magnification of the imaging lens unit 32 of the scanner 12 is changed (increased), and the image is formed on the image sensor 34 so that the image centered on the corrected output image area P 'becomes the size of the output image area P. And do a fine scan,
The image of the corrected output image area P 'may be read photoelectrically. By doing so, it is possible to obtain a high-quality image without any deterioration in image quality without changing the image processing of the image processing device 14 after the fine scan, in particular, the image processing by the fine scan processing unit 50.

【0078】以上、出力画像領域設定部68におけるプ
リント出力画像領域Pの自動調整方法について説明した
が、本発明の出力画像領域調整方法において、出力画像
領域は、必ずしもプリント出力画像を得るためのプリン
ト出力画像領域Pに制限されず、例えばディスプレイ2
0に画像表示するディスプレイ出力画像領域であっても
よいし、画像データ記録媒体19aに記録するため、ま
たはネットワークを介して配信するための再現画像領域
であっても良い。この場合、例えば、ディスプレイ20
上の画像表示は、自動調整されたディスプレイ出力画像
領域内の画像の表示となる。
While the method of automatically adjusting the print output image area P in the output image area setting section 68 has been described above, in the output image area adjustment method of the present invention, the output image area is not necessarily a print for obtaining a print output image. For example, the display 2 is not limited to the output image area P.
It may be a display output image area for displaying an image at 0, or a reproduced image area for recording on the image data recording medium 19a or distributing via a network. In this case, for example, the display 20
The upper image display is the display of the image in the display output image area that has been automatically adjusted.

【0079】さらに、画像処理装置14、低解像度で読
み取られたままの画像処理前のプレスキャンデータに基
づいてプリント出力画像領域Pを設定しているが、画像
処理条件を設定する際に、画像処理が施された処理済プ
レスキャンデータに基づいて、出力画像領域Pを設定し
てもよい。また、プレスキャンを行うことなく、プリン
ト出力のために高解像度で読み取ったファインスキャン
データから間引き等を行って得られる画像データに基づ
いて画像処理条件や出力画像領域Pの設定を行い、ディ
スプレイ20に画像表示し、オペレータの検定に供して
もよい。
Further, the image processing apparatus 14 sets the print output image area P based on the pre-scan data before image processing that has been read at a low resolution. The output image area P may be set based on the processed pre-scan data that has been processed. Further, without performing pre-scanning, image processing conditions and output image areas P are set based on image data obtained by performing thinning-out or the like from fine scan data read at a high resolution for print output. May be displayed as an image and used for operator verification.

【0080】以上、本発明の出力画像領域調整方法につ
いて詳細に説明したが、本発明は上記実施例に限定はさ
れず、本発明の要旨を逸脱しない範囲において、各種の
改良および変更を行ってもよいのはもちろんである。
Although the output image area adjusting method of the present invention has been described in detail above, the present invention is not limited to the above embodiment, and various improvements and changes are made without departing from the gist of the present invention. Of course it is good.

【0081】[0081]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、主要被写体抽出、指写り抽出およびカブリ領域
抽出のうちの少なくとも1つを行い、抽出された抽出領
域に応じて自動的に、または抽出領域に応じた調整促進
情報に従って半自動的に出力画像領域を調整するので、
オペレータによる出力画像領域のマニュアル調整の頻度
が減少し、あるいは、オペレータによる出力画像領域の
マニュアル調整が極めて容易となり、オペレータの検定
における負担が軽減され、処理効率が向上する。また、
本発明によれば、主要被写体が可能な限り含まれ、指写
り領域やカブリ領域等を可能な限り含まないプリント出
力画像を得ることができるので、プリントの付加価値を
向上させることができる。
As described in detail above, according to the present invention, at least one of main subject extraction, finger image extraction, and fog region extraction is performed, and automatic extraction is performed in accordance with the extracted extraction region. Or automatically adjust the output image area according to the adjustment promotion information according to the extraction area,
The frequency of manual adjustment of the output image area by the operator is reduced, or the manual adjustment of the output image area by the operator becomes extremely easy, so that the burden on the operator for verification is reduced and the processing efficiency is improved. Also,
According to the present invention, it is possible to obtain a print output image that includes a main subject as much as possible and does not include a finger image area, a fogging area, and the like as much as possible, so that the added value of printing can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の出力画像領域調整方法を実施するデ
ジタルフォトプリンタの一実施例の概略構成を示すブロ
ック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of an embodiment of a digital photo printer that performs an output image area adjustment method according to the present invention.

【図2】 図1に示されるデジタルフォトプリンタの画
像処理装置の一実施例の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an embodiment of an image processing apparatus of the digital photo printer illustrated in FIG.

【図3】 (a)、(b)、(c)および(d)は、そ
れぞれ本発明の出力画像領域調整方法を実施する画像処
理装置の一実施例の要部を示すブロック図である。
FIGS. 3A, 3B, 3C, and 3D are block diagrams each showing a main part of an embodiment of an image processing apparatus that performs an output image area adjusting method according to the present invention;

【図4】 (a)、(b)、(c)および(d)は、そ
れぞれ本発明の出力画像領域調整方法の一例を説明する
説明図である。
FIGS. 4 (a), (b), (c) and (d) are explanatory views each explaining an example of the output image area adjusting method of the present invention.

【図5】 (a)、(b)および(c)は、それぞれ本
発明の出力画像領域調整方法の他の例を説明する説明図
である。
FIGS. 5A, 5B, and 5C are explanatory diagrams illustrating another example of the output image area adjustment method of the present invention.

【図6】 (a)および(b)は、それぞれ本発明の出
力画像領域調整方法の他の例を説明する説明図である。
FIGS. 6A and 6B are explanatory diagrams illustrating another example of the output image area adjustment method of the present invention.

【符号の説明】[Explanation of symbols]

10 デジタルフォトプリンタ 12 スキャナ 14 画像処理装置 16 プリンタ 18 操作系 19a 画像データ記録媒体 19b ドライバ 20 ディスプレイ 20a 表示画面 21 送受信デバイス 22 光源 40 データ処理部 42 Log変換器 44 プレスキャンメモリ 46 ファインスキャンメモリ 48 プレスキャン処理部 50 ファインスキャン処理部 52,56 画像データ処理部 54,58 画像データ変換部 60 条件設定部 62 セットアップ部 64 キー補正部 66 パラメータ統合部 68 出力画像領域設定部 68a 主要被写体抽出部 68b,68d,68f 出力画像領域調整部 68c 指写り抽出部 68e カブリ領域抽出部 G0 (検出)画像領域 P,P0 (プリント)出力画像領域 P1 ,P2 出力画像領域枠 P’ 修正(プリント)出力画像領域 Q 調整促進情報 R0 指写り領域DESCRIPTION OF SYMBOLS 10 Digital photo printer 12 Scanner 14 Image processing device 16 Printer 18 Operation system 19a Image data recording medium 19b Driver 20 Display 20a Display screen 21 Transmission / reception device 22 Light source 40 Data processing unit 42 Log converter 44 Prescan memory 46 Fine scan memory 48 Press Can processing section 50 Fine scan processing section 52, 56 Image data processing section 54, 58 Image data conversion section 60 Condition setting section 62 Setup section 64 Key correction section 66 Parameter integration section 68 Output image area setting section 68a Main subject extraction section 68b, 68d, 68f output image area adjustment unit 68c finger-through extraction unit 68e fogged area extracting unit G 0 (detection) image region P, P 0 (printed) output image area P 1, P 2 output image area frame P 'corrected (flop Cement) the output image area Q adjustment promotional information R 0 fingers through area

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/00 H04N 1/00 G // H04N 101:00 101:00 Continuation of the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) H04N 1/00 H04N 1/00 G // H04N 101: 00 101: 00

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】原画像の画像領域の中から出力画像を得る
ための出力画像領域を前記原画像の画像領域内で調整し
て、所定の出力画像サイズに適合した出力画像データを
得る出力画像領域調整方法であって、 前記原画像の画像領域を抽出し、 抽出された原画像の画像領域に対して、主要被写体抽
出、指写り抽出およびカブリ領域抽出のうちの少なくと
も1つの領域抽出を行って抽出領域を得、 抽出された抽出領域に応じて自動的に前記出力画像領域
を調整し、 この調整された出力画像領域内の画像データより前記出
力画像データを得ることを特徴とする出力画像領域調整
方法。
An output image for obtaining an output image data adapted to a predetermined output image size by adjusting an output image area for obtaining an output image from an image area of an original image within the image area of the original image. An area adjustment method, wherein an image area of the original image is extracted, and at least one area extraction of main subject extraction, finger image extraction, and fog area extraction is performed on the extracted image area of the original image. An output image is obtained by automatically adjusting the output image area according to the extracted extraction area, and obtaining the output image data from the image data in the adjusted output image area. Area adjustment method.
【請求項2】前記原画像の画像領域に対して、前記主要
被写体抽出が行われる場合、 前記出力画像領域を調整して、前記主要被写体抽出によ
り抽出された主要被写体を前記出力画像領域内に含まし
める請求項1に記載の出力画像領域調整方法。
2. When the main subject is extracted from the image area of the original image, the main image extracted by the main subject extraction is adjusted in the output image area by adjusting the output image area. The output image area adjusting method according to claim 1, wherein the output image area adjusting method is included.
【請求項3】前記主要被写体抽出は、顔抽出である請求
項2に記載の出力画像領域調整方法。
3. The output image area adjusting method according to claim 2, wherein said main subject extraction is face extraction.
【請求項4】前記原画像の画像領域に対して、前記指写
り抽出または前記カブリ領域抽出が行われる場合、 前記出力画像領域を調整して、前記指写り抽出または前
記カブリ領域抽出により抽出された前記抽出領域を前記
出力画像領域内で最小化する請求項1に記載の出力画像
領域調整方法。
4. When the finger image extraction or the fog area extraction is performed on the image area of the original image, the finger image extraction or the fog area extraction is performed by adjusting the output image area. 2. The output image area adjusting method according to claim 1, wherein the extracted area is minimized in the output image area.
【請求項5】原画像の画像領域の中から出力画像を得る
ための出力画像領域を前記原画像の画像領域内で調整し
て、所定の出力画像サイズに適合した出力画像データを
得る出力画像領域調整方法であって、 原画像の画像領域を抽出し、 抽出された原画像の画像領域に対して、主要被写体抽
出、指写り抽出およびカブリ領域抽出のうちの少なくと
も1つの領域抽出を行い、 抽出された抽出領域の結果によって、前記出力画像領域
の調整が必要と判断される場合には、前記出力画像領域
の調整を促す情報を発することを特徴とする出力画像領
域調整方法。
5. An output image in which an output image area for obtaining an output image from an image area of an original image is adjusted within the image area of the original image to obtain output image data adapted to a predetermined output image size. An area adjustment method, wherein an image area of an original image is extracted, and at least one of main object extraction, finger image extraction and fog area extraction is performed on the extracted image area of the original image, An output image area adjusting method, wherein, when it is determined that the output image area needs to be adjusted based on the result of the extracted extraction area, information prompting the adjustment of the output image area is issued.
【請求項6】前記出力画像領域の調整を促す情報は、前
記主要被写体抽出が前記出力画像領域に含まれていない
ことを示す情報、前記指写り抽出により抽出された抽出
領域が前記出力画像領域に含まれていることを示す情報
および前記カブリ領域抽出により抽出された抽出領域が
前記出力画像領域に含まれていることを示す情報の少な
くとも1つである請求項5に記載の出力画像領域調整方
法。
6. The information prompting the adjustment of the output image area includes information indicating that the main subject extraction is not included in the output image area, and information indicating that the extraction area extracted by the finger image extraction is the output image area. 6. The output image area adjustment according to claim 5, wherein the output image area adjustment includes at least one of information indicating that the image is included in the output image area and information indicating that the extracted area extracted by the fog area extraction is included in the output image area. Method.
【請求項7】前記出力画像領域の調整を促す情報は、画
像表示デバイスにその中から1つを選択するように表示
され、前記抽出された抽出領域の結果に応じて調整され
た1つ以上の出力画像領域枠である請求項5に記載の出
力画像領域調整方法。
7. The information prompting the user to adjust the output image area is displayed on an image display device so as to select one of the information, and one or more information adjusted according to the result of the extracted extraction area. 6. The output image area adjusting method according to claim 5, wherein the output image area frame is an image frame.
【請求項8】前記出力画像領域の自動調整、もしくは前
記出力画像領域の調整を促す情報の発生は、予め入力ま
たは設定される第1補助情報に基づいて行われる請求項
1〜7のいずれかに記載の出力画像領域調整方法。
8. The method according to claim 1, wherein the automatic adjustment of the output image area or the generation of information prompting the adjustment of the output image area is performed based on first auxiliary information input or set in advance. 3. The output image area adjusting method according to 1.
【請求項9】前記第1補助情報は、前記主要被写体抽出
によって抽出される主要被写体、前記指写り抽出によっ
て抽出される指写りおよび前記カブリ領域抽出によって
抽出されるカブリの少なくとも2つが同一の原画像の画
像領域で抽出された際のいずれを優先させるのかの優先
順位の情報を含む請求項8に記載の出力画像領域調整方
法。
9. The first auxiliary information includes a source image in which at least two of a main subject extracted by the main subject extraction, a finger image extracted by the finger image extraction and a fog extracted by the fog region extraction are the same. 9. The output image area adjusting method according to claim 8, further comprising information on a priority order to prioritize when the image is extracted in an image area of the image.
【請求項10】前記第1補助情報は、前記主要被写体抽
出、前記指写り抽出および前記カブリ領域抽出のいずれ
を優先させるのかの優先順位の情報を含む請求項8また
は9に記載の出力画像領域調整方法。
10. The output image area according to claim 8, wherein the first auxiliary information includes priority information indicating which of the main subject extraction, the finger image extraction and the fogging area extraction should be prioritized. Adjustment method.
【請求項11】前記少なくとも1つの領域抽出は、オペ
レータの第2補助情報に基づいて行われる請求項1〜1
0のいずれかに記載の出力画像領域調整方法。
11. The method according to claim 1, wherein said at least one region extraction is performed based on second auxiliary information of an operator.
0. The output image area adjustment method according to any one of 0.
【請求項12】前記第2補助情報は、主要被写体領域、
指写り領域およびカブリ領域のうちの少なくとも1つの
領域内の位置を指定することによって与える情報である
請求項11に記載の出力画像領域調整方法。
12. The second auxiliary information includes a main subject area,
The output image area adjusting method according to claim 11, wherein the information is information provided by designating a position in at least one of the finger image area and the fog area.
【請求項13】前記抽出領域に応じた前記出力画像領域
の調整は、前記原画像の画像領域から切り出す前記出力
画像領域の画像サイズを変更せずに、前記原画像の画像
領域から切り出す前記出力画像領域の位置を変更するこ
とによって行う請求項1〜12のいずれかに記載の出力
画像領域調整方法。
13. Adjustment of the output image area according to the extraction area is performed by cutting the output image area of the original image without changing the image size of the output image area cut from the image area of the original image. The output image area adjusting method according to claim 1, wherein the output image area adjusting method is performed by changing a position of the image area.
【請求項14】前記抽出領域に応じた前記出力画像領域
の調整は、少なくとも、前記原画像の画像領域から切り
出す前記出力画像領域の画像サイズを変更し、この変更
された画像サイズに応じて電子変倍処理の変倍率を変更
するか、もしくは、この変更された画像サイズの出力画
像領域内の画像を光学倍率を変更して光電的に読み取る
ことによって行う請求項1〜12のいずれかに記載の出
力画像領域調整方法。
14. Adjusting the output image area according to the extraction area at least changes the image size of the output image area cut out from the image area of the original image, and adjusts the electronic size according to the changed image size. 13. The method according to claim 1, wherein the magnification is changed by changing the magnification, or the image in the output image area having the changed image size is read photoelectrically while changing the optical magnification. Output image area adjustment method.
【請求項15】前記変更した出力画像領域の縦横比は、
画像サイズ変更前の前記出力画像領域の縦横比と同じで
ある請求項14に記載の出力画像領域調整方法。
15. The aspect ratio of the changed output image area is:
15. The output image area adjusting method according to claim 14, wherein an aspect ratio of the output image area before changing the image size is the same.
【請求項16】前記原画像は、写真フィルムに記録され
た画像を光電的に読み取って得られるデジタル画像、デ
ジタルスチルカメラで撮影されて得られるデジタル画像
またはネットワークを介して取得されるデジタル画像で
ある請求項1〜15のいずれかに記載の出力画像領域調
整方法。
16. The original image may be a digital image obtained by photoelectrically reading an image recorded on a photographic film, a digital image obtained by photographing with a digital still camera, or a digital image obtained via a network. The output image area adjusting method according to claim 1.
【請求項17】前記出力画像データは、画像表示装置、
あるいはプリント出力装置に出力されるか、または画像
データ記録媒体に記録されるか、もしくはネットワーク
を介して配信される請求項1〜16のいずれかに記載の
出力画像領域調整方法。
17. An image display device, comprising:
17. The output image area adjusting method according to claim 1, wherein the output image area is output to a print output device, recorded on an image data recording medium, or distributed via a network.
JP2000350708A 1999-11-18 2000-11-17 Output image area adjustment method Expired - Fee Related JP4049986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000350708A JP4049986B2 (en) 1999-11-18 2000-11-17 Output image area adjustment method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP32819499 1999-11-18
JP11-328194 1999-11-18
JP2000350708A JP4049986B2 (en) 1999-11-18 2000-11-17 Output image area adjustment method

Publications (2)

Publication Number Publication Date
JP2001211315A true JP2001211315A (en) 2001-08-03
JP4049986B2 JP4049986B2 (en) 2008-02-20

Family

ID=26572781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000350708A Expired - Fee Related JP4049986B2 (en) 1999-11-18 2000-11-17 Output image area adjustment method

Country Status (1)

Country Link
JP (1) JP4049986B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286653A (en) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd Image display method, image display and image display program
JP2008065793A (en) * 2006-09-11 2008-03-21 Sony Corp Image processing apparatus and method, and program
JP2009060300A (en) * 2007-08-30 2009-03-19 Seiko Epson Corp Image processing device, image processing method, and image processing program
US20090091772A1 (en) * 2007-10-05 2009-04-09 Sony Corporation Print system, image display appartus, image display method, and image display program
WO2010027080A1 (en) * 2008-09-08 2010-03-11 ソニー株式会社 Image processing apparatus and method, imaging apparatus, and program
US8467580B2 (en) 2006-09-11 2013-06-18 Sony Corporation Image data processing apparatus, method, program and recording medium
CN105718439A (en) * 2016-03-04 2016-06-29 广州微印信息科技有限公司 Picture typesetting method based on face recognition

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286653A (en) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd Image display method, image display and image display program
US8467580B2 (en) 2006-09-11 2013-06-18 Sony Corporation Image data processing apparatus, method, program and recording medium
JP2008065793A (en) * 2006-09-11 2008-03-21 Sony Corp Image processing apparatus and method, and program
US8306331B2 (en) 2006-09-11 2012-11-06 Sony Corporation Image processing apparatus and method, and program
JP2009060300A (en) * 2007-08-30 2009-03-19 Seiko Epson Corp Image processing device, image processing method, and image processing program
US8472751B2 (en) 2007-08-30 2013-06-25 Seiko Epson Corporation Image processing device, image processing method, and image processing program
CN102096900A (en) * 2007-08-30 2011-06-15 精工爱普生株式会社 Image processing device, image processing method, and image processing program
US8218899B2 (en) 2007-08-30 2012-07-10 Seiko Epson Corporation Image processing device, image processing method, and image processing program
US20090091772A1 (en) * 2007-10-05 2009-04-09 Sony Corporation Print system, image display appartus, image display method, and image display program
JP2009094736A (en) * 2007-10-05 2009-04-30 Sony Corp Print system, image display device, image display method, and image display program
RU2462757C2 (en) * 2008-09-08 2012-09-27 Сони Корпорейшн Device and method to process images, device to input images and software
WO2010027080A1 (en) * 2008-09-08 2010-03-11 ソニー株式会社 Image processing apparatus and method, imaging apparatus, and program
JP5224149B2 (en) * 2008-09-08 2013-07-03 ソニー株式会社 Image processing apparatus and method, imaging apparatus, and program
US8538074B2 (en) 2008-09-08 2013-09-17 Sony Corporation Image processing apparatus and method, image capturing apparatus, and program
US9390466B2 (en) 2008-09-08 2016-07-12 Sony Corporation Image processing apparatus and method, image capturing apparatus and program
CN105718439A (en) * 2016-03-04 2016-06-29 广州微印信息科技有限公司 Picture typesetting method based on face recognition
CN105718439B (en) * 2016-03-04 2018-10-26 广州微印信息科技有限公司 A kind of photo automatic composing method based on recognition of face

Also Published As

Publication number Publication date
JP4049986B2 (en) 2008-02-20

Similar Documents

Publication Publication Date Title
US7289664B2 (en) Method of detecting and correcting the red eye
JP3590265B2 (en) Image processing method
JPH11175699A (en) Picture processor
JPH1191169A (en) Image processing apparatus
JP2001218047A (en) Picture processor
JPH1186021A (en) Image processor
US6834127B1 (en) Method of adjusting output image areas
JP4172663B2 (en) Image processing method
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
JP2003209683A (en) Image processing equipment and image processing method
JP3405266B2 (en) Image processing method and apparatus
JP4064031B2 (en) Image processing method
JP4049986B2 (en) Output image area adjustment method
JPH11177802A (en) Image processor
JP4482307B2 (en) Image processing device
JP2001223891A (en) Picture processing method
JP3862198B2 (en) ID photo photographing apparatus, image processing apparatus and ID photo creating system
JP2001197289A (en) Image processing method and image processor
JPH10262132A (en) Image reading device
JP2003283849A (en) Method for detecting and correcting red eye
JPH11308470A (en) Print system
JPH11328388A (en) Method and device for image reproduction
JP2002300390A (en) Image reproducing method and image reproducing device
JPH11331570A (en) Image processing method and device therefor
JPH11243493A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050905

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071128

R150 Certificate of patent or registration of utility model

Ref document number: 4049986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131207

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees