JPH11316845A - Method and device for extracting main object - Google Patents

Method and device for extracting main object

Info

Publication number
JPH11316845A
JPH11316845A JP11052321A JP5232199A JPH11316845A JP H11316845 A JPH11316845 A JP H11316845A JP 11052321 A JP11052321 A JP 11052321A JP 5232199 A JP5232199 A JP 5232199A JP H11316845 A JPH11316845 A JP H11316845A
Authority
JP
Japan
Prior art keywords
extraction
subject
extracting
unit
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11052321A
Other languages
Japanese (ja)
Other versions
JP3576025B2 (en
Inventor
Naoto Kaneshiro
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP05232199A priority Critical patent/JP3576025B2/en
Publication of JPH11316845A publication Critical patent/JPH11316845A/en
Application granted granted Critical
Publication of JP3576025B2 publication Critical patent/JP3576025B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)
  • Image Processing (AREA)
  • Facsimiles In General (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract a precise main object with excellent efficiency in accordance with images in various states by performing auxiliary object extraction whose characteristic is different when a synthesized result does not satisfy a decision criterion and extracting the main object by using the synthesized result and an extraction result by means of the auxiliary object extraction. SOLUTION: A synthesis and result deciding part 82 synthesizes face candidate areas which are extracted by a flesh-colored and circular extracting part 78 and a face outline and circular extracting part 80, and further decides whether a result of face extraction is appropriate or inappropriate for the synthesized face (candidate) area. When it is decided that an extraction result is inappropriate, a body and eye part extracting part 86 further performs face extraction by body extraction and circular extraction and face extraction by eye part extraction and circular extraction as auxiliary object extraction. The extraction result of a face area in the part 86 is sent together with a face area synthesized by the part 82 to a main part deciding part 88.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、フォトプリンタ等
に好適に利用される、フィルムに撮影された画像等の原
画像から主要被写体を抽出する主要被写体抽出方法およ
び装置の技術分野に属する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention belongs to the technical field of a main subject extracting method and apparatus for extracting a main subject from an original image such as an image photographed on a film, which is suitably used for a photo printer or the like.

【0002】[0002]

【従来の技術】現在、ネガフィルム、リバーサルフィル
ム等の写真フィルム(以下、フィルムとする)に撮影さ
れた画像の感光材料(印画紙)への焼き付けは、フィル
ムの画像を感光材料に投影して感光材料を面露光する、
いわゆる直接露光(アナログ露光)が主流である。
2. Description of the Related Art At present, an image photographed on a photographic film (hereinafter referred to as a film) such as a negative film or a reversal film is printed on a photosensitive material (photographic paper) by projecting an image of the film onto the photosensitive material. Surface-exposing the photosensitive material,
So-called direct exposure (analog exposure) is the mainstream.

【0003】これに対し、近年では、デジタル露光を利
用する焼付装置、すなわち、フィルムに記録された画像
を光電的に読み取って、読み取った画像をデジタル信号
とした後、種々の画像処理を施して記録用の画像データ
とし、この画像データに応じて変調した記録光によって
感光材料を走査露光して画像(潜像)を記録し、(仕上
り)プリントとするデジタルフォトプリンタが実用化さ
れた。
On the other hand, in recent years, a printing apparatus using digital exposure, that is, an image recorded on a film is photoelectrically read, the read image is converted into a digital signal, and then various image processing is performed. 2. Description of the Related Art Digital photo printers have been put to practical use, in which image data (latent images) are recorded by scanning and exposing a photosensitive material with recording light modulated in accordance with the image data, and the resulting images are printed.

【0004】デジタルフォトプリンタでは、画像をデジ
タルの画像データとして、画像データ処理によって焼付
時の露光条件を決定することができるので、逆光やスト
ロボ撮影等に起因する画像の飛びやツブレの補正、シャ
ープネス(鮮鋭化)処理、カラーあるいは濃度フェリア
の補正等を好適に行って、従来の直接露光では得られな
かった高品位なプリントを得ることができる。また、複
数画像の合成や画像分割、さらには文字の合成等も画像
データ処理によって行うことができ、用途に応じて自由
に編集/処理したプリントも出力可能である。しかも、
デジタルフォトプリンタによれば、画像をプリント(写
真)として出力するのみならず、画像データをコンピュ
ータ等に供給したり、フロッピーディスク等の記録媒体
に保存しておくこともできるので、画像データを、写真
以外の様々な用途に利用することができる。
In a digital photo printer, exposure conditions at the time of printing can be determined by image data processing using an image as digital image data, so that image skipping and blurring caused by backlight, strobe photography, and the like can be corrected, and sharpness can be reduced. By suitably performing (sharpening) processing, correction of color or density feria, etc., it is possible to obtain high-quality prints that cannot be obtained by conventional direct exposure. Further, synthesis of a plurality of images, image division, and synthesis of characters can also be performed by image data processing, and a print that has been freely edited / processed according to the intended use can be output. Moreover,
According to a digital photo printer, not only can an image be output as a print (photo), but also image data can be supplied to a computer or the like or stored on a recording medium such as a floppy disk. It can be used for various purposes other than photography.

【0005】このようなデジタルフォトプリンタは、基
本的に、フィルムに記録された画像を光電的に読み取る
スキャナ(画像読取装置)、および読み取った画像を画
像処理して出力用の画像データ(露光条件)とする画像
処理装置を有する画像入力装置と、画像入力装置から出
力された画像データに応じて感光材料を走査露光して潜
像を記録するプリンタ(画像記録装置)、および露光済
の感光材料に現像処理を施してプリントとするプロセサ
(現像装置)を有する画像出力装置とを有する。
[0005] Such a digital photo printer basically includes a scanner (image reading device) for photoelectrically reading an image recorded on a film, and image data (exposure conditions) for processing the read image and outputting the image. An image input device having an image processing device, a printer (image recording device) for scanning and exposing a photosensitive material in accordance with image data output from the image input device to record a latent image, and an exposed photosensitive material And an image output device having a processor (developing device) that applies a developing process to the printed image.

【0006】スキャナでは、光源から射出された読取光
をフィルムに入射して、フィルムに撮影された画像を担
持する投影光を得て、この投影光を結像レンズによって
CCDセンサ等のイメージセンサに結像して光電変換す
ることにより画像を読み取り、必要に応じて各種の画像
処理を施した後に、フィルムの画像データ(画像データ
信号)として画像処理装置に送る。画像処理装置は、ス
キャナによって読み取られた画像データから画像処理条
件を設定して、設定した条件に応じた画像処理を画像デ
ータに施し、画像記録のための出力画像データ(露光条
件)としてプリンタに送る。プリンタでは、例えば、光
ビーム走査露光を利用する装置であれば、画像処理装置
から送られた画像データに応じて光ビームを変調して、
この光ビームを主走査方向に偏向すると共に、主走査方
向と直交する副走査方向に感光材料を搬送することによ
り、画像を担持する光ビームによって感光材料を露光
(焼付け)して潜像を形成し、次いで、プロセサにおい
て感光材料に応じた現像処理等を施して、フィルムに撮
影された画像が再生されたプリント(写真)とする。
In a scanner, reading light emitted from a light source is incident on a film to obtain projection light carrying an image photographed on the film, and the projection light is transmitted to an image sensor such as a CCD sensor by an imaging lens. The image is read by forming an image and performing photoelectric conversion, and after performing various types of image processing as necessary, the image is sent to the image processing apparatus as image data (image data signal) of the film. The image processing apparatus sets image processing conditions from image data read by a scanner, performs image processing according to the set conditions on the image data, and outputs the image data to a printer as output image data (exposure conditions) for image recording. send. In the printer, for example, if the device uses light beam scanning exposure, the light beam is modulated according to the image data sent from the image processing device,
The light beam is deflected in the main scanning direction and the photosensitive material is conveyed in a sub-scanning direction orthogonal to the main scanning direction, thereby exposing (burning) the photosensitive material with the light beam carrying an image to form a latent image. Then, the processor performs a developing process or the like in accordance with the photosensitive material to obtain a reproduced print (photograph) of the image photographed on the film.

【0007】[0007]

【発明が解決しようとする課題】ところで、このような
デジタルフォトプリンタ、通常のアナログのフォトプリ
ンタ(以下、両者をまとめてフォトプリンタという)を
問わず、画像中に人物が存在する場合には、人物の顔が
最も重要視され、その仕上りが、再生画像すなわちプリ
ントの品質や評価に大きな影響を与える。
Regardless of such a digital photo printer or a general analog photo printer (hereinafter, collectively referred to as a photo printer), when a person exists in an image, A person's face is regarded as the most important, and its finish greatly affects the quality and evaluation of a reproduced image, that is, a print.

【0008】そのため、従来のフォトプリンタでは、フ
ィルムに撮影された画像から人物の顔(顔領域)を抽出
し、顔が好ましく仕上がるように露光条件、すなわち、
デジタルフォトプリンタでは出力用の画像データを得る
ための画像処理条件を、アナログのフォトプリンタでは
露光光量や色フィルタの挿入量等を、それぞれ決定して
いる。特に、デジタルフォトプリンタでは、前述のよう
に、画像データ処理によって非常に自由度の高い画像処
理を行うことができるので、顔の情報は、画像に応じた
最適な画像処理条件を設定するための重要な情報とな
り、適正な顔抽出を行うことにより、高品位なプリント
を、より安定して作成することが可能となる。
For this reason, in a conventional photo printer, a face (face area) of a person is extracted from an image photographed on a film, and the exposure condition, that is, the exposure condition, that is, the face is preferably finished.
A digital photo printer determines image processing conditions for obtaining image data for output, and an analog photo printer determines an exposure light amount, an insertion amount of a color filter, and the like. In particular, in a digital photo printer, as described above, image processing with very high flexibility can be performed by image data processing. Therefore, face information is used to set optimal image processing conditions according to an image. It becomes important information, and by performing appropriate face extraction, a high-quality print can be created more stably.

【0009】このような事情の下、従来より、顔のみな
らず、各種の主要被写体の抽出を行うための被写体抽出
の方法が、各種提案されており、例えば、画像の色相や
彩度を用いた肌色抽出や、画像のエッジ部を検出するこ
とによる輪郭抽出等が知られている。しかしながら、フ
ィルムに撮影される画像の状態は、ストロボ撮影、逆光
シーン、オーバー(露光過剰)、アンダー(露光不
足)、カラーフェリア等の様々な撮影条件で変わるた
め、これらの方法では、様々な状態の画像に対応して顔
抽出を安定して高精度に行うことは困難である。他方、
複数の被写体抽出方法を組み合わせることにより、顔抽
出の精度を上げることは可能であるが、様々な状態の画
像に対応して、安定的に高精度な顔抽出を行うために
は、多数の被写体抽出方法を組み合わせる必要があり、
被写体抽出のための処理演算時間の増大を避けることは
できず、プリント作成効率の低下等を招く結果となる。
Under such circumstances, various methods of extracting a subject for extracting not only a face but also various main subjects have been proposed. For example, a method for extracting hue and saturation of an image has been proposed. Extraction of a flesh color, contour extraction by detecting an edge portion of an image, and the like are known. However, the state of an image photographed on film varies depending on various photographing conditions such as strobe photographing, backlit scene, over (excessive exposure), under (underexposure), color feria, and the like. It is difficult to perform face extraction stably and with high accuracy corresponding to the image of (1). On the other hand,
It is possible to increase the accuracy of face extraction by combining multiple subject extraction methods.However, in order to stably and accurately perform face extraction corresponding to images in various states, a large number of subjects are required. You need to combine extraction methods,
Inevitably, an increase in processing time for subject extraction cannot be avoided, resulting in a decrease in print production efficiency and the like.

【0010】本発明の目的は、前記従来技術の問題点を
解決することにあり、デジタルおよびアナログのフォト
プリンタ等において、様々な状態の画像に対応して、高
精度な主要被写体の抽出を、良好な効率で行うことを可
能にする主要被写体抽出方法および装置を提供すること
にある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems of the prior art. In digital and analog photo printers and the like, highly accurate extraction of a main subject corresponding to images in various states is performed. An object of the present invention is to provide a main subject extracting method and apparatus which can perform the processing with good efficiency.

【0011】[0011]

【課題を解決するための手段】前記目的を達成するため
に、本発明は、特性の異なる複数の被写体抽出を行い、
各被写体抽出で抽出された被写体を合成して、合成結果
が所定の判定基準を満たした場合には、前記合成結果か
ら主要被写体を抽出し、前記合成結果が判定基準を満た
さない場合には、さらに、特性の異なる補助被写体抽出
を行い、前記合成結果と、この補助被写体抽出による抽
出結果とを用いて、主要被写体を抽出することを特徴と
する主要被写体抽出方法を提供する。
In order to achieve the above object, the present invention extracts a plurality of subjects having different characteristics,
By combining the subjects extracted in each subject extraction, if the combined result satisfies a predetermined criterion, a main subject is extracted from the combined result, and if the combined result does not satisfy the criterion, Further, the present invention provides a main subject extracting method, which comprises extracting auxiliary subjects having different characteristics, and extracting a main subject by using the synthesis result and the extraction result by the auxiliary subject extraction.

【0012】また、前記判定基準が、各被写体抽出によ
る抽出画像を合成した際の領域重複度、各被写体抽出に
よる抽出画像を合成した際の重み付け点数の少なくとも
一方であるのが好ましく、また、前記合成結果から主要
被写体を抽出した際に、抽出した主要被写体の画像特徴
量が予め定められた規定値を超えた場合には、前記補助
被写体抽出を行い、前記合成結果および/または前記主
要被写体抽出結果と、補助被写体抽出による抽出結果と
を用いて、主要被写体を抽出するのが好ましく、また、
前記合成結果から主要被写体を抽出した際に、抽出され
た主要被写体が複数で、この複数の主要被写体間の画像
特徴量に所定値を超える違いがある場合には、前記補助
被写体抽出を行い、補助被写体抽出による抽出結果とを
用いて、主要被写体を抽出するのが好ましく、また、前
記被写体抽出が、肌色抽出、顔輪郭抽出および円形状抽
出から選択される2以上であり、前記補助被写体抽出
が、頭髪部抽出、顔内部構造抽出、胴体抽出、非背景部
抽出および円形状抽出から選択される1以上であるのが
好ましい。
[0012] Preferably, the criterion is at least one of an area overlapping degree when combining the extracted images obtained by extracting the respective subjects, and a weighting score when combining the extracted images obtained by extracting the respective subjects. When the main subject is extracted from the synthesis result and the image feature amount of the extracted main subject exceeds a predetermined value, the auxiliary subject is extracted and the synthesis result and / or the main subject extraction is performed. It is preferable to extract the main subject using the result and the extraction result by the auxiliary subject extraction.
When a main subject is extracted from the synthesis result, the extracted main subjects are plural, and when there is a difference exceeding a predetermined value in the image feature amount between the plural main subjects, the auxiliary subject extraction is performed. Preferably, the main subject is extracted using the extraction result of the auxiliary subject extraction, and the subject extraction is at least two selected from skin color extraction, face contour extraction, and circular shape extraction. Is preferably one or more selected from hair part extraction, face internal structure extraction, body extraction, non-background part extraction, and circular shape extraction.

【0013】また、本発明は、並列処理される、特性の
異なる被写体抽出を行う複数の抽出サブユニットおよび
各抽出サブユニットの結果により前記被写体抽出の条件
判定を行う条件判定部を有する被写体抽出ユニットを少
なくとも1つ含む抽出ユニットが複数個カスケード接続
されてなり、前記条件判定部は、前記抽出サブユニット
によって抽出された各被写体の抽出領域への重み付けあ
るいは判定を行い、かつその結果を移行する後段の少な
くとも1つの前記抽出ユニットを選択することを特徴と
する主要被写体抽出装置を提供するものである。
Further, the present invention provides a subject extraction unit having a plurality of extraction subunits for performing subject extraction with different characteristics, which are processed in parallel, and a condition determination unit for determining the subject extraction condition based on the result of each extraction subunit. A plurality of extraction units including at least one extraction unit are connected in cascade, and the condition determination unit weights or determines the extraction area of each subject extracted by the extraction subunit, and shifts the result. A main subject extracting apparatus, wherein at least one of the extracting units is selected.

【0014】ここで、前記抽出ユニットは、被写体抽出
を行う1個の抽出サブユニットおよびこの抽出サブユニ
ットの結果により前記被写体抽出の条件判定を行う条件
判定部を有するユニット、または前記抽出サブユニット
を有さず、カスケード接続された前段の抽出ユニットの
結果により、抽出された被写体の条件判定を行う条件判
定部のみを持つユニットを少なくとも1つ含むのが好ま
しい。また、前記抽出サブユニットは、肌色抽出部、顔
輪郭抽出部、円形状抽出部、胴体抽出部、眼部抽出部、
頭髪部抽出部、顔内部構造抽出部、非背景部抽出部、な
らびに肌色抽出、顔輪郭抽出、円形状抽出、胴体抽出、
眼部抽出、頭髪部抽出、顔内部構造抽出および非背景部
抽出の少なくとも2種の抽出を行う抽出部から選択され
る2つ以上であるのが好ましい。また、前記条件判定部
は、並列処理される複数の抽出サブユニットで抽出され
た特性の異なる被写体の候補を合成し、合成された複数
の候補の前記被写体の抽出領域から前記被写体抽出の結
果が適正か否かを判定する合成・結果判定部を含むのが
好ましい。また、カスケード接続された前記抽出ユニッ
トの最後段の前記抽出ユニットの条件判定部は、主要被
写体を抽出する主要被写体判定部であるのが好ましい。
Here, the extraction unit is a unit having one extraction sub-unit for extracting a subject and a condition determining unit for determining a condition for extracting the subject based on a result of the extraction sub-unit, or the extraction sub-unit. It is preferable to include at least one unit having only a condition determination unit that performs a condition determination of the extracted subject based on the result of the preceding cascade-connected extraction unit. In addition, the extraction sub-unit includes a skin color extraction unit, a face contour extraction unit, a circular shape extraction unit, a body extraction unit, an eye extraction unit,
Hair part extraction part, face internal structure extraction part, non-background part extraction part, skin color extraction, face outline extraction, circular shape extraction, body extraction,
It is preferable that the number is two or more selected from the extraction units that perform at least two types of extractions: eye extraction, hair extraction, face internal structure extraction, and non-background extraction. Further, the condition determination unit combines candidates of subjects having different characteristics extracted by a plurality of extraction subunits to be processed in parallel, and obtains a result of the subject extraction from an extracted region of the combined plurality of candidates. It is preferable to include a combining / result determining unit for determining whether the combination is appropriate. Further, it is preferable that the condition determination unit of the last extraction unit of the cascade-connected extraction units is a main subject determination unit that extracts a main subject.

【0015】また、本発明は、並列処理される、特性の
異なる被写体抽出を行う複数種の抽出サブ工程および各
抽出サブ工程の結果により前記被写体抽出の条件判定を
行う条件判定サブ工程を有する被写体抽出工程を少なく
とも1つ含む抽出工程が、複数段カスケード接続されて
なり、前記条件判定サブ工程では、前記抽出サブ工程に
よって抽出された各被写体の抽出領域への重み付けある
いは判定を行い、かつその結果を移行する後段の少なく
とも1つの前記抽出工程を選択することを特徴とする主
要被写体抽出方法を提供刷るものである。
Further, the present invention provides a subject having a plurality of types of extraction sub-steps for extracting subjects having different characteristics to be processed in parallel and a condition judgment sub-step for judging the subject extraction condition based on the result of each extraction sub-step. An extraction step including at least one extraction step is cascade-connected in a plurality of stages. In the condition determination sub-step, weighting or determination is performed on the extraction area of each subject extracted in the extraction sub-step, and The main subject extraction method is characterized in that at least one of the extraction steps at the subsequent stage of the transition to the above is selected.

【0016】ここで、前記抽出工程は、被写体抽出を行
う1種の抽出サブ工程およびこの抽出サブ工程の結果に
より前記被写体抽出の条件判定を行う条件判定サブ工程
を有する工程、および前記抽出サブ工程を有さず、カス
ケード接続された前段の抽出工程の結果により、抽出さ
れた被写体の候補の条件判定を行う条件判定サブ工程の
みを有する工程の少なくとも1つを含むのが好ましい。
また、前記抽出サブ工程は、肌色抽出、顔輪郭抽出、円
形状抽出、胴体抽出、眼部抽出または顔内部構造抽出、
頭髪部抽出、非背景部抽出、およびこれらの少なくとも
2種の抽出の組み合わせから選択される2種以上を含む
のが好ましい。また、前記条件判定サブ工程は、並列処
理される複数の抽出サブ工程で抽出された特性の異なる
被写体の候補を合成し、合成された複数の候補の前記被
写体の抽出領域から前記被写体抽出の結果が適正か否か
を判定する合成・結果判定工程を含むのが好ましい。ま
た、カスケード接続された前記抽出工程の内の最後段の
前記抽出工程の条件判定サブ工程は、主要被写体を抽出
する主要被写体判定工程であるのが好ましい。
Here, the extracting step includes a kind of extracting sub-step for extracting a subject, a condition determining sub-step for determining a condition for extracting the subject based on a result of the extracting sub-step, and the extracting sub-step. It is preferable to include at least one of the steps having only a condition determination sub-step of performing the condition determination of the extracted subject candidate based on the result of the previous cascade-connected extraction step.
In addition, the extraction sub-step includes skin color extraction, face outline extraction, circular shape extraction, body extraction, eye extraction or face internal structure extraction,
It is preferable to include two or more types selected from a hair part extraction, a non-background part extraction, and a combination of at least two types of extraction. The condition determination sub-step may include synthesizing candidates of subjects having different characteristics extracted in the plurality of extraction sub-steps to be processed in parallel, and extracting a result of the subject extraction from the synthesized plurality of candidate extraction areas of the subject. It is preferable to include a combining / result determining step of determining whether or not is appropriate. Preferably, the condition determination sub-step of the last extraction step of the cascade-connected extraction steps is a main subject determination step of extracting a main subject.

【0017】[0017]

【発明の実施の形態】以下、本発明の主要被写体抽出方
法および装置について、添付の図面に示される好適実施
例を基に詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, a method and apparatus for extracting a main subject according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

【0018】図1に、本発明の主要被写体抽出方法およ
び装置を利用するデジタルフォトプリンタの一例のブロ
ック図が示される。図1に示されるデジタルフォトプリ
ンタ(以下、フォトプリンタ10とする)は、基本的
に、フィルムFに撮影された画像を光電的に読み取るス
キャナ(画像読取装置)12と、読み取られた画像デー
タ(画像情報)の画像処理やフォトプリンタ10全体の
操作および制御等を行う画像処理装置14と、画像処理
装置14から出力された画像データに応じて変調した光
ビームで感光材料(印画紙)を画像露光し、現像処理し
て(仕上り)プリントとして出力するプリンタ16とを
有する。また、画像処理装置14には、様々な条件の入
力(設定)、処理の選択や指示、色/濃度補正などの指
示等を入力するためのキーボード18aおよびマウス1
8bを有する操作系18と、スキャナ12で読み取られ
た画像、各種の操作指示、条件の設定/登録画面等を表
示するディスプレイ20が接続される。
FIG. 1 is a block diagram showing an example of a digital photo printer using the main subject extracting method and apparatus of the present invention. The digital photo printer (hereinafter, referred to as a photo printer 10) shown in FIG. 1 basically includes a scanner (image reading device) 12 that photoelectrically reads an image captured on a film F, and read image data ( An image processing device 14 that performs image processing of image information and the entire operation and control of the photo printer 10, and images a photosensitive material (photographic paper) with a light beam modulated according to image data output from the image processing device 14. A printer 16 that exposes, develops, and outputs (finished) prints. The image processing apparatus 14 also includes a keyboard 18a and a mouse 1 for inputting (setting) various conditions, selecting and instructing processing, and inputting instructions such as color / density correction.
An operation system 18 having an 8b and a display 20 for displaying an image read by the scanner 12, various operation instructions, a condition setting / registration screen, and the like are connected.

【0019】なお、本発明の主要被写体抽出方法および
装置は、このようなデジタルフォトプリンタのみなら
ず、フィルムに撮影された画像を光電的に読み取って、
得られた画像データから絞り量などの露光光量や色フィ
ルタ挿入量などの色調整量等の露光条件を設定し、この
露光条件に応じて、フィルムの投影光で感光材料を露光
する、従来の直接露光によるアナログのフォトプリンタ
にも好適に利用可能である。
The method and apparatus for extracting a main subject according to the present invention not only use such a digital photo printer, but also photoelectrically read an image photographed on a film.
A conventional method of setting exposure conditions such as an exposure light amount such as an aperture amount and a color adjustment amount such as an insertion amount of a color filter from obtained image data, and exposing a photosensitive material with projection light of a film according to the exposure conditions. The present invention can be suitably used for an analog photo printer by direct exposure.

【0020】スキャナ12は、フィルムF等に撮影され
た画像を1コマずつ光電的に読み取る装置で、光源22
と、可変絞り24と、フィルムFに入射する読取光をフ
ィルムFの面方向で均一にする拡散ボックス28と、結
像レンズユニット32と、R(赤)、G(緑)およびB
(青)の各画像読取に対応するラインCCDセンサを有
するイメージセンサ34と、アンプ(増幅器)36と、
A/D(アナログ/デジタル)変換器38とを有する。
The scanner 12 is a device for photoelectrically reading an image photographed on a film F or the like one frame at a time.
A variable aperture 24, a diffusion box 28 for making the reading light incident on the film F uniform in the surface direction of the film F, an imaging lens unit 32, R (red), G (green), and B
An image sensor 34 having a line CCD sensor corresponding to each image reading of (blue), an amplifier 36,
An A / D (analog / digital) converter 38.

【0021】また、フォトプリンタ10においては、新
写真システム(Advanced Photo System)や135サイズ
のネガ(あるいはリバーサル)フィルム等のフィルムの
種類やサイズ、ストリップスやスライド等のフィルムの
形態等に応じて、スキャナ12の本体に装着自在な専用
のキャリアが用意されており、キャリアを交換すること
により、各種のフィルムや処理に対応することができ
る。フィルムに撮影され、プリント作成に供される画像
(コマ)は、このキャリアによって所定の読取位置に搬
送される。このようなスキャナ12において、フィルム
Fに撮影された画像を読み取る際には、光源22から射
出され、可変絞り24によって光量調整された読取光
が、キャリアによって所定の読取位置に位置されたフィ
ルムFに入射して、透過することにより、フィルムFに
撮影された画像を担持する投影光を得る。
In the photo printer 10, the type and size of a film such as a new photographic system (Advanced Photo System) or a 135-size negative (or reversal) film, the form of the film such as strips and slides, and the like are determined. In addition, a dedicated carrier that can be mounted on the main body of the scanner 12 is prepared, and by changing the carrier, it is possible to cope with various films and processes. An image (frame) photographed on a film and provided for printing is conveyed to a predetermined reading position by this carrier. When reading an image photographed on the film F in such a scanner 12, the reading light emitted from the light source 22 and the light amount of which is adjusted by the variable aperture 24 is transferred to the film F positioned at a predetermined reading position by the carrier. , And is transmitted therethrough to obtain projection light carrying an image photographed on the film F.

【0022】図示例のキャリア30は、図2(A)に模
式的に示されるように、所定の読取位置にフィルムFを
位置しつつ、イメージセンサ34のラインCCDセンサ
の延在方向(主走査方向)と直交する副走査方向に、フ
ィルムFの長手方向を一致させて搬送する、読取位置を
副走査方向に挟んで配置される搬送ローラ対30aおよ
び30bと、フィルムFの投影光を所定のスリット状に
規制する、読取位置に対応して位置する主走査方向に延
在するスリット40aを有するマスク40とを有する。
フィルムFは、このキャリア30によって読取位置に位
置されて副走査方向に搬送されつつ、読取光を入射され
る。これにより、結果的にフィルムFが主走査方向に延
在するスリット40aによって2次元的にスリット走査
され、フィルムFに撮影された各コマの画像が読み取ら
れる。
As shown schematically in FIG. 2A, the carrier 30 in the illustrated example extends the line CCD sensor of the image sensor 34 (main scanning direction) while the film F is positioned at a predetermined reading position. Direction), a pair of transport rollers 30a and 30b arranged to sandwich the reading position in the sub-scanning direction and transport the film F in a sub-scanning direction perpendicular to the sub-scanning direction. And a mask 40 having a slit 40a extending in the main scanning direction and positioned in a main scanning direction corresponding to the reading position.
The film F receives the reading light while being transported in the sub-scanning direction while being positioned at the reading position by the carrier 30. As a result, the film F is two-dimensionally slit-scanned by the slit 40a extending in the main scanning direction, and the image of each frame captured on the film F is read.

【0023】なお、図中符号44は、フィルムに光学的
に記録されるDXコード、拡張DXコード、FNSコー
ド等のバーコードを読み取るためのコードリーダであ
る。また、新写真システムのフィルムには、磁気記録媒
体が形成されており、新写真システムのフィルム(カー
トリッジ)に対応するキャリアには、この磁気記録媒体
に記録された情報を読み取り、また、必要な情報を記録
する磁気ヘッドが配置され、フィルムFの画像読取時
に、この磁気ヘッドによって磁気情報が読み取られ、必
要な情報が、スキャナ12から画像処理装置14に送ら
れる。
Reference numeral 44 in the figure denotes a code reader for reading a bar code such as a DX code, an extended DX code, and an FNS code optically recorded on a film. Further, a magnetic recording medium is formed on the film of the new photographic system, and a carrier corresponding to the film (cartridge) of the new photographic system reads information recorded on the magnetic recording medium, and A magnetic head for recording information is provided. When reading an image on the film F, magnetic information is read by the magnetic head, and necessary information is sent from the scanner 12 to the image processing device 14.

【0024】前述のように、読取光はキャリア30に保
持されたフィルムFを透過して画像を担持する投影光と
なり、この投影光は、結像レンズユニット32によって
イメージセンサ34の受光面に結像される。図2(B)
に示されるように、イメージセンサ34は、R画像の読
み取りを行うラインCCDセンサ34R、G画像の読み
取りを行うラインCCDセンサ34G、およびB画像の
読み取りを行うラインCCDセンサ34Bを有する、い
わゆる3ラインのカラーCCDセンサで、各ラインCC
Dセンサは、前述のように主走査方向に延在している。
フィルムFの投影光は、このイメージセンサ34によっ
て、R、GおよびBの3原色に分解されて光電的に読み
取られる。イメージセンサ34の出力信号は、アンプ3
6で増幅され、A/D変換器38でデジタル信号とされ
て、画像処理装置14に送られる。
As described above, the reading light is transmitted through the film F held by the carrier 30 and becomes projection light for carrying an image. The projection light is formed on the light receiving surface of the image sensor 34 by the imaging lens unit 32. Imaged. FIG. 2 (B)
The image sensor 34 includes a line CCD sensor 34R for reading an R image, a line CCD sensor 34G for reading a G image, and a line CCD sensor 34B for reading a B image. Color CCD sensor for each line CC
The D sensor extends in the main scanning direction as described above.
The projection light of the film F is separated into three primary colors of R, G and B by the image sensor 34 and read photoelectrically. The output signal of the image sensor 34 is
The digital signal is amplified by the A / D converter 38, converted into a digital signal by the A / D converter 38, and sent to the image processing device 14.

【0025】スキャナ12においては、フィルムFに撮
影された画像の読み取りを、低解像度で読み取るプレス
キャンと、出力画像の画像データを得るための本スキャ
ンとの、2回の画像読取で行う。プレスキャンは、スキ
ャナ12が対象とする全てのフィルムの画像を、イメー
ジセンサ34が飽和することなく読み取れるように、あ
らかじめ設定された、プレスキャンの読取条件で行われ
る。一方、本スキャンは、プレスキャンデータから、そ
の画像(コマ)の最低濃度よりも若干低い濃度でイメー
ジセンサ34が飽和するように、各コマ毎に設定された
本スキャンの読取条件で行われる。プレスキャンと本ス
キャンの出力信号は、解像度と出力レベルが異なる以外
は、基本的に同じデータである。
The scanner 12 reads an image photographed on the film F by two image readings: a prescan for reading at a low resolution and a main scan for obtaining image data of an output image. The pre-scan is performed under pre-scan reading conditions set in advance so that the image of all the films targeted by the scanner 12 can be read without saturation of the image sensor 34. On the other hand, the main scan is performed under the main scan reading conditions set for each frame from the pre-scan data so that the image sensor 34 saturates at a density slightly lower than the minimum density of the image (frame). The output signals of the pre-scan and the main scan are basically the same data except that the resolution and the output level are different.

【0026】なお、本発明の主要被写体抽出方法および
装置を利用するデジタルフォトプリンタにおいて、スキ
ャナは、このようなスリット走査読取によるものに限定
されず、1コマの画像の全面に読取光を照射して一度に
読み取る、面読取を利用するものであってもよい。この
場合には、例えば、エリアCCDセンサを用い、光源と
フィルムFとの間に、R、GおよびBの各色フィルタの
挿入手段を設け、色フィルタを挿入してエリアCCDセ
ンサで画像を読み取ることを、R、GおよびBの各色フ
ィルタで順次行い、フィルムに撮影された画像を3原色
に分解して順次行う。
In the digital photo printer using the method and apparatus for extracting a main subject according to the present invention, the scanner is not limited to such a slit scanning reading, and the reading light is applied to the entire surface of one frame image. The reading may be performed at a time, using surface reading. In this case, for example, using an area CCD sensor, providing means for inserting R, G, and B color filters between the light source and the film F, inserting a color filter, and reading an image with the area CCD sensor. Is sequentially performed by each of R, G, and B color filters, and the image photographed on the film is separated into three primary colors, and sequentially performed.

【0027】前述のように、スキャナ12から出力され
たデジタル信号は、画像処理装置14(以下、処理装置
14とする)に出力される。図3に、処理装置14のブ
ロック図を示す。処理装置14は、データ処理部48、
Log変換器50、プレスキャン(フレーム)メモリ5
2、本スキャン(フレーム)メモリ54、プレスキャン
処理部56、本スキャン処理部58、および条件設定部
60を有する。なお、図3は、主に画像処理関連の部位
を示すものであり、処理装置14には、これ以外にも、
処理装置14を含むフォトプリンタ10全体の制御や管
理を行うCPU、フォトプリンタ10の作動等に必要な
情報を記憶するメモリ等が配置され、また、操作系18
やディスプレイ20は、このCPU等(CPUバス)を
介して各部位に接続される。
As described above, the digital signal output from the scanner 12 is output to the image processing device 14 (hereinafter, referred to as the processing device 14). FIG. 3 shows a block diagram of the processing device 14. The processing device 14 includes a data processing unit 48,
Log converter 50, prescan (frame) memory 5
2. It has a main scan (frame) memory 54, a pre-scan processing unit 56, a main scan processing unit 58, and a condition setting unit 60. FIG. 3 mainly shows a portion related to image processing.
A CPU for controlling and managing the entire photo printer 10 including the processing device 14, a memory for storing information necessary for the operation of the photo printer 10, and the like are arranged.
And the display 20 are connected to each part via the CPU or the like (CPU bus).

【0028】スキャナ12から出力されたR,Gおよび
Bの各デジタル信号は、データ処理部48において、暗
時補正、欠陥画素補正、シェーディング補正等の所定の
データ処理を施された後、Log変換器50によって変
換されてデジタルの画像データ(濃度データ)とされ、
プレスキャンデータはプレスキャンメモリ52に、本ス
キャンデータは本スキャンメモリ54に、それぞれ記憶
(格納)される。プレスキャンメモリ52に記憶された
プレスキャンデータは、画像データ処理部62(以下、
処理部62とする)と画像データ変換部64とを有する
プレスキャン処理部56に、他方、本スキャンメモリ5
4に記憶された本スキャンデータは、画像データ処理部
66(以下、処理部66とする)と画像データ変換部6
8とを有する本スキャン処理部58に読み出され、処理
される。
The R, G, and B digital signals output from the scanner 12 are subjected to predetermined data processing such as darkness correction, defective pixel correction, and shading correction in a data processing unit 48, and then are Log-converted. Is converted by the device 50 into digital image data (density data),
The pre-scan data is stored (stored) in the pre-scan memory 52 and the main scan data is stored in the main scan memory 54. The pre-scan data stored in the pre-scan memory 52 is stored in an image data processing unit 62 (hereinafter, referred to as an image data processing unit 62).
A pre-scan processing unit 56 having an image data converting unit 64 and a main scan memory 5
The main scan data stored in the image data processing unit 66 is referred to as an image data processing unit 66 (hereinafter, referred to as a processing unit 66).
8 is read out and processed by the main scan processing unit 58 having.

【0029】プレスキャン処理部56の処理部62と、
本スキャン処理部58の処理部66は、後述する条件設
定部60が設定した処理条件に応じて、スキャナ12に
よって読み取られた画像(画像データ)に、所定の画像
処理を施す部位で、両者は、解像度が異なる以外は、基
本的に、同じ処理を行う。両処理部による画像処理には
特に限定はなく、公知の各種の画像処理が例示される
が、例えば、LUT(ルックアップテーブル)を用いた
グレイバランス調整、階調補正、および濃度(明るさ)
調整、マトリクス(MTX)による撮影光源種補正や画
像の彩度調整(色調整)、その他、ローパスフィルタ、
加算器、LUT、MTX等を用いた、また、これらを適
宜組み合わせた平均化処理や補間演算等を用いた、電子
変倍処理、覆い焼き処理(濃度ダイナミックレンジの圧
縮/伸長)、シャープネス(鮮鋭化)処理等が例示され
る。これらの各画像処理条件は、プレスキャンデータを
用いて後述する条件設定部60において設定される。
A processing section 62 of the prescan processing section 56;
A processing unit 66 of the main scan processing unit 58 is a unit that performs predetermined image processing on an image (image data) read by the scanner 12 according to processing conditions set by a condition setting unit 60 described later. , Except that the resolution is different. The image processing by both processing units is not particularly limited, and various known image processings are exemplified. For example, gray balance adjustment using a LUT (look-up table), gradation correction, and density (brightness)
Adjustment, correction of shooting light source type by matrix (MTX), image saturation adjustment (color adjustment), other, low-pass filter,
Electronic scaling processing, dodging processing (compression / expansion of density dynamic range), sharpness (sharpness) using an adder, LUT, MTX, or the like, and using averaging processing or interpolation calculation or the like in which these are appropriately combined. Process) is exemplified. These image processing conditions are set in a condition setting unit 60 described later using the prescan data.

【0030】画像データ変換部68は、処理部66によ
って処理された画像データを、例えば、3D(三次元)
−LUT等を用いて変換して、プリンタ16による画像
記録に対応する画像データとしてプリンタ16に供給す
る。画像データ変換部64は、処理部62によって処理
された画像データを、必要に応じて間引いて、同様に、
3D−LUT等を用いて変換して、ディスプレイ20に
よる表示に対応する画像データとしてディスプレイ20
に供給する。両者における処理条件は、プレスキャンデ
ータを用いて後述する条件設定部60で設定される。
The image data conversion unit 68 converts the image data processed by the processing unit 66 into, for example, 3D (three-dimensional) data.
-Convert using an LUT or the like, and supply to the printer 16 as image data corresponding to image recording by the printer 16. The image data conversion unit 64 thins out the image data processed by the processing unit 62 as necessary,
The image data is converted using a 3D-LUT or the like, and converted into image data corresponding to the display on the display 20.
To supply. The processing conditions in both cases are set by the condition setting unit 60 described later using the prescan data.

【0031】条件設定部60は、プレスキャン処理部5
6および本スキャン処理部58における各種の処理条件
や、本スキャンの読取条件を設定する。この条件設定部
60は、セットアップ部72、キー補正部74、および
パラメータ統合部76を有する。
The condition setting section 60 includes a pre-scan processing section 5
6 and various processing conditions in the main scan processing section 58 and the reading conditions for the main scan are set. The condition setting section 60 includes a setup section 72, a key correction section 74, and a parameter integration section 76.

【0032】セットアップ部72は、プレスキャンデー
タを用いて画像の主要部(主要被写体)を抽出する主要
部抽出部72A(以下、抽出部72Aとする)と、抽出
部72Aが抽出した主要部の情報、プレスキャンデー
タ、および必要に応じて行われるオペレータの指示に応
じて、本スキャンの読取条件を設定してスキャナ12に
供給し、また、プレスキャン処理部56および本スキャ
ン処理部58の画像処理条件を作成(演算)し、パラメ
ータ統合部76に供給する、設定部72Bとを有する。
この抽出部72Aは、本発明の主要被写体抽出方法を実
施する本発明の主要被写体抽出装置を構成するものであ
る。
The setup section 72 includes a main section extraction section 72A (hereinafter, referred to as an extraction section 72A) for extracting a main section (main subject) of the image using the prescan data, and a main section extracted by the extraction section 72A. According to the information, the pre-scan data, and the operator's instruction performed as necessary, the main scan reading conditions are set and supplied to the scanner 12, and the images of the pre-scan processing unit 56 and the main scan processing unit 58 A setting unit 72B that creates (calculates) a processing condition and supplies it to the parameter integrating unit 76;
The extraction unit 72A constitutes a main subject extraction device according to the present invention that performs the main subject extraction method according to the present invention.

【0033】図4に、主要部として人物の顔を抽出する
本発明の主要被写体抽出方法を実施する本発明の主要被
写体抽出装置である抽出部72Aの一実施例のブロック
図を示すが、本発明はこれに限定されるわけではない。
抽出部72Aは、肌色・円形状抽出部78、顔輪郭・円
形状抽出部80、合成・結果判定部82、切換部84、
胴体・眼部抽出部86、および主要部判定部88を有す
る。
FIG. 4 is a block diagram showing an embodiment of an extracting section 72A which is a main subject extracting apparatus of the present invention for implementing a main subject extracting method of the present invention for extracting a human face as a main part. The invention is not limited to this.
The extracting unit 72A includes a skin color / circular shape extracting unit 78, a face contour / circular shape extracting unit 80, a combining / result determining unit 82, a switching unit 84,
It has a torso / eye part extraction unit 86 and a main part determination unit 88.

【0034】肌色・円形状抽出部78は、肌色抽出およ
び円形状抽出を行うことにより、主要部としての顔領域
を抽出する。すなわち、肌色・円形状抽出部78は、プ
レスキャンデータ(必要に応じて間引いても可)から各
画素の色相および彩度を検出し、人の肌に対応する肌色
と推定できる画素領域(肌色領域)を抽出する。人の顔
は、一般的に楕円形であるので、肌色・円形状抽出部7
8は、次いで、抽出した肌色領域から、人の顔であると
推定される(楕)円形状を抽出して、顔候補領域とす
る。
The skin color / circular shape extraction unit 78 extracts a face region as a main part by performing skin color extraction and circular shape extraction. That is, the skin color / circular shape extraction unit 78 detects the hue and saturation of each pixel from the pre-scan data (thinning may be performed as necessary), and determines a pixel area (skin color) that can be estimated as a skin color corresponding to human skin. Region). Since the human face is generally elliptical, the skin color / circular shape extraction unit 7
In step 8, a (elliptical) circular shape which is presumed to be a human face is extracted from the extracted skin color region and is set as a face candidate region.

【0035】顔輪郭・円形状抽出部80は、エッジ抽出
および円形状抽出を行うことにより、主要部としての顔
領域を抽出する。すなわち、顔輪郭・円形状抽出部80
は、まず、プレスキャンデータ(必要に応じて間引いて
も可)を所定の閾値で2値化し、閾値よりも低濃度の画
素で構成される領域(フィルムFがネガであれば、出力
されるプリント上では高濃度となるので、この領域を
「黒領域」とする)と、閾値よりも高濃度の画素で構成
される領域(同様に「白領域」とする)とに分割する。
次いで、各黒領域と白領域の輪郭をトレースして、輪郭
の曲率を算出し、凹部および凸部を抽出する。あるい
は、微分フィルタ処理によるエッジ検出および所定の閾
値による2値化を行い、そのエッジに基づいて輪郭をト
レースしてもよい。次いで、トレースした輪郭のライン
から、ラインの長さや曲率、凹凸、さらには他のライン
との対称性から、人の顔の側部に対応すると推定される
ライン(特定ライン)を抽出して、対称をなす1対の特
定ラインの対称軸を設定し、対応するラインの間隔およ
び長さの比(経緯比)と、画像データや2値化データ等
からも求めたラインの線対称性類似度から、人の顔の両
側部を形成すると仮定できるライン(仮定ライン)を抽
出する。さらに、仮定ラインの上部および下部、すなわ
ち顔と頭髪部および胴体(首や肩)との境界線に対応す
る位置に、仮定ラインとほぼ直交する方向にベクトルを
有するラインが存在するか否かを検出し、存在すれば、
必要に応じて先に判定した線対称性類似度も考慮して、
このラインを、人の顔の両側部を形成するラインと判定
する。次いで、このラインに囲まれた領域において、前
記経緯比に応じた楕円形状を抽出して、顔候補領域とす
る。
The face contour / circular shape extraction unit 80 extracts a face region as a main part by performing edge extraction and circular shape extraction. That is, the face outline / circular shape extraction unit 80
First, binarizes pre-scan data (can be thinned out as necessary) with a predetermined threshold, and outputs an area composed of pixels having a density lower than the threshold (if the film F is negative, it is output Since the density is high on a print, this area is divided into a “black area” and an area composed of pixels having a density higher than the threshold (also a “white area”).
Next, the contour of each black region and white region is traced, the curvature of the contour is calculated, and the concave portion and the convex portion are extracted. Alternatively, edge detection by differential filtering and binarization by a predetermined threshold may be performed, and the contour may be traced based on the edge. Next, from the traced contour line, a line (specific line) that is estimated to correspond to the side of the human face is extracted from the line length, curvature, unevenness, and even symmetry with other lines, Sets the axis of symmetry of a pair of symmetric specific lines, sets the ratio of the interval and length of the corresponding lines (velocity ratio), and the line symmetry similarity of the lines obtained from image data, binarized data, etc. , Lines that can be assumed to form both sides of the human face (assumed lines) are extracted. Furthermore, it is determined whether there is a line having a vector in a direction substantially orthogonal to the hypothetical line at the top and bottom of the hypothetical line, that is, at a position corresponding to the boundary between the face, the hair, and the torso (neck and shoulder). If detected and present,
Considering the previously determined line symmetry similarity as necessary,
This line is determined as a line forming both sides of the human face. Next, in a region surrounded by the line, an elliptical shape corresponding to the above-mentioned history ratio is extracted and set as a face candidate region.

【0036】合成・結果判定部82は、肌色・円形状抽
出部78と顔輪郭・円形状抽出部80とで抽出された顔
候補領域を合成して、さらに、この合成顔(候補)領域
から、顔抽出の結果が適正か不適性かの判定を行う。な
お、図示例においては、2種の特性の異なる顔抽出を行
って、顔領域の合成および判定を行っているが、本発明
はこれに限定はされず、3種以上の特性の異なる顔抽出
を行って、合成および判定を行ってもよい。
The combining / result determining section 82 combines the face candidate areas extracted by the skin color / circular shape extracting section 78 and the face contour / circular shape extracting section 80, and further, from this combined face (candidate) area. Then, it is determined whether the result of the face extraction is appropriate or inappropriate. In the illustrated example, two types of faces with different characteristics are extracted to synthesize and determine a face region. However, the present invention is not limited to this, and three or more types of face extraction with different characteristics are extracted. May be performed to perform synthesis and determination.

【0037】合成・結果判定部82は、例えば、図5に
示されるように、肌色・円形状抽出部78で抽出された
領域Aと、顔輪郭・円形状抽出部80で抽出された領域
Bとが重複した領域Cの面積を求め、面積比C/Aおよ
び面積比C/Bが、共に所定の閾値(Th)を超えてい
れば、顔抽出結果が適正であると判定し、それ以外の場
合には、不適性であると判定する。合成・結果判定部8
2における判定方法の別の方法としては、抽出方法等に
応じて、抽出した領域の信頼度に応じた重み付けを行
い、その合計点で判定する方法が例示される。例えば、
図5を参照して、肌色・円形状抽出部78で抽出された
領域Aの画素を1点、顔輪郭・円形状抽出部80で抽出
された領域Bの画素を1点、両領域が重複した領域Cの
画素は3点として、合計点を算出し、合計点がある閾値
を超えれば顔抽出結果が適正、閾値以下であれば不適性
と判定する。また、合成・結果判定部82においては、
重複領域による判定と重み付け点数の合計点による判定
の両者を行い、両方とも適正であると判断した場合、あ
るいは、いずれか一方が適正であると判断した場合に、
顔抽出結果が適正であると判定してもよい。
As shown in FIG. 5, for example, as shown in FIG. 5, the combining / result determining section 82 includes an area A extracted by the skin color / circular extracting section 78 and an area B extracted by the face contour / circular extracting section 80. Is obtained, and if the area ratio C / A and the area ratio C / B both exceed a predetermined threshold (Th), it is determined that the face extraction result is appropriate, and In the case of, it is determined to be inappropriate. Compositing / result determining unit 8
As another method of the determination method in 2, there is exemplified a method of performing weighting according to the reliability of the extracted area according to the extraction method and the like, and determining based on the total point. For example,
Referring to FIG. 5, one pixel of area A extracted by flesh color / circular shape extraction unit 78, one point of pixel of area B extracted by face outline / circular shape extraction unit 80, and both areas overlap. Assuming that the pixels in the region C are three points, the total point is calculated. If the total point exceeds a certain threshold, the face extraction result is determined to be appropriate, and if the total point is equal to or less than the threshold, the face extraction result is determined to be inappropriate. In the combining / result determining unit 82,
When both the determination based on the overlapping area and the determination based on the total points of the weighted points are performed, and when both are determined to be appropriate, or when either one is determined to be appropriate,
It may be determined that the face extraction result is appropriate.

【0038】合成・結果判定部82においては、必要に
応じて、顔抽出結果の判定基準(上記例では閾値)を変
更してもよい。例えば、人物の顔のアップ等で画像に占
める主要部の面積が多いと考えられる場合(前述の肌色
面積で判定すればよい)や、ストロボ撮影のシーンで
は、高画質な再生画像を得るためには、顔抽出を高精度
に行う方が好ましいので、判定基準を厳しくしてもよ
く、また、この際には、肌色面積等に応じて段階的に判
定基準を設定してもよい。逆に、通常のポートレート等
であれば、判定基準を厳しくしすぎると、抽出すべき顔
領域を落としてしまう場合があるので、判定基準を緩く
してもよい。判定基準の調整は、画像(データ)の解析
結果に応じて抽出部72A(合成・結果判定部82)が
行ってもよく、オペレータが判断して指示を入力しても
よく、新写真システムのフィルムであれば、磁気情報か
らストロボ撮影シーン等を検知して調整してもよい。
In the synthesizing / result determining section 82, the criterion (the threshold in the above example) of the face extraction result may be changed as necessary. For example, in the case where it is considered that the area of the main part occupying the image is large due to the close-up of a person's face or the like (it may be determined based on the above-described skin color area), or in a flash shooting scene, it is necessary to obtain a high-quality reproduced image. Since it is preferable to perform face extraction with high accuracy, the criterion may be strict. In this case, the criterion may be set stepwise according to the skin color area or the like. Conversely, in the case of a normal portrait or the like, if the criterion is too strict, the face area to be extracted may be dropped. Therefore, the criterion may be loosened. The adjustment of the criterion may be performed by the extraction unit 72A (synthesis / result determination unit 82) according to the analysis result of the image (data), or the operator may determine and input an instruction. In the case of a film, a strobe shooting scene or the like may be detected from magnetic information and adjusted.

【0039】合成・結果判定部82において、抽出結果
が適正であると判定された場合には、合成された顔領域
(その情報)が主要部判定部88に送られ、画像の主要
部が判定される。主要部判定部88における画像主要部
(主要被写体)の判定方法には特に限定はなく、例え
ば、肌色・円形状抽出部78および顔輪郭・円形状抽出
部80で抽出された全領域を主要部と判定してもよく、
両者による抽出結果の重複部を主要部と判定してもよ
い。主要部判定部88で判定された画像の主要部(主要
部領域)の情報は、設定部72Bに供給される。
When the combining / result determining section 82 determines that the extraction result is proper, the combined face area (information thereof) is sent to the main section determining section 88, and the main section of the image is determined. Is done. The method of determining the main part (main subject) of the image in the main part determining unit 88 is not particularly limited. For example, the entire region extracted by the skin color / circular shape extracting unit 78 and the face contour / circular shape extracting unit 80 is used as the main part. May be determined,
The overlapping part of the extraction result by both may be determined as the main part. Information on the main part (main part area) of the image determined by the main part determination unit 88 is supplied to the setting unit 72B.

【0040】一方、合成・結果判定部82において、抽
出結果が不適正であると判定された場合には、さらに、
胴体・眼部抽出部86において、補助被写体抽出とし
て、胴体抽出および円形状抽出による顔抽出、ならびに
眼部抽出および円形状抽出による顔抽出が行われる。な
お、合成・結果判定部82において、合成された顔の抽
出結果が不適正であると判定された場合に、さらに行わ
れる補助被写体抽出は、2種類に限定されず、これ未満
あるいはこれを超える数の顔抽出を行ってもよい。
On the other hand, when the combining / result determining unit 82 determines that the extraction result is inappropriate,
In the torso / eye part extraction unit 86, face extraction by torso extraction and circular shape extraction, and face extraction by eye part extraction and circular shape extraction are performed as auxiliary subject extraction. When the combining / result determining unit 82 determines that the combined face extraction result is incorrect, the auxiliary subject extraction to be further performed is not limited to two types, and may be less than or more than this. A number of face extractions may be performed.

【0041】前述のように、多数の被写体抽出方法を組
み合わせることにより、顔抽出の精度は向上することが
可能であるが、多くの被写体抽出方法を行うと、演算や
画像処理に時間がかかり、効率が低下する。これに対
し、本発明の主要被写体抽出方法は、まず、特性の異な
る複数の被写体抽出方法を組み合わせて行うことによ
り、通常の画像の際には、これで十分な精度を確保して
効率の良い主要被写体抽出を行い、画像状態等に応じて
十分な精度が確保できない場合のみ、さらに、他の被写
体抽出を併用して、より高精度な主要被写体抽出を行
う。従って、本発明によれば、良好な効率で、十分な精
度を確保して主要被写体の抽出を行うことができる。特
に、前述の肌色抽出や顔輪郭抽出と円形状抽出とを利用
する顔抽出は、低い解像度や比較的簡単な画像解析で、
比較的、高精度な顔抽出を行うことができ、通常の画像
であれば、両抽出方法を組み合わせれば、十分な精度の
顔抽出ができるので、前段の顔抽出としては好適であ
る。
As described above, the accuracy of face extraction can be improved by combining a large number of subject extraction methods. However, if many subject extraction methods are performed, computation and image processing take time. Efficiency decreases. On the other hand, the main subject extraction method of the present invention first performs a combination of a plurality of subject extraction methods having different characteristics, thereby ensuring sufficient accuracy and improving efficiency in normal images. Only when the main subject is extracted and sufficient accuracy cannot be ensured according to the image state or the like, the main subject is extracted with higher accuracy by using another subject extraction together. Therefore, according to the present invention, the main subject can be extracted with good efficiency and sufficient accuracy. In particular, face extraction using the above-described skin color extraction, face contour extraction, and circular shape extraction is a low resolution and relatively simple image analysis,
Relatively high-accuracy face extraction can be performed, and in the case of a normal image, a combination of both extraction methods can achieve sufficient-accuracy face extraction.

【0042】胴体・眼部抽出部86において、胴体抽出
および円形状抽出による顔抽出は、例えば、以下のよう
に行われる。まず、前述の顔輪郭抽出と同様にして画像
の2値化による白領域と黒領域の分別、両領域の輪郭の
トレースを行う。次いで、トレースした輪郭のラインか
ら、端点の距離が近く、ラインの成す角度が所定の範囲
内のラインの組を、胴体の首から肩、肩から腕または胴
体下部に相当するとして、胴体輪郭の片側となり得るラ
インの組として抽出する。次いで、両ラインが連結する
まで延長して、胴体輪郭の片側候補となるライン(片側
候補ライン)を生成し、各片側候補ラインと胴体輪郭の
対を成す可能性があるライン(対称ラインとする)を抽
出する。この抽出は、例えば、片側候補ラインと向い合
う凹を成す可能性の有無等で行えばよい。さらに、各片
側候補ラインと対称ラインとの線対称軸を設定し、両ラ
インと線対称軸とが成す角度が所定角度内か否かを判別
し、その結果から、胴体輪郭と判断できる片側候補ライ
ンと対称ラインとの組を抽出する。最後に、得られた胴
体輪郭の片側候補ラインと対称ラインの位置、大きさ、
間隔、および線対称軸の方向に基いて、この胴体輪郭の
人の顔に対応する楕円形状を成すと推定される領域を抽
出して、顔候補領域とする。
In the torso / eye extraction unit 86, face extraction by torso extraction and circular shape extraction is performed, for example, as follows. First, in the same manner as in the above-described face outline extraction, a white area and a black area are discriminated by binarizing an image, and the outline of both areas is traced. Next, from the traced contour line, a set of lines whose end points are close to each other and whose angle is within a predetermined range is regarded as corresponding to the neck to shoulder of the torso, the shoulder to the arm or the lower part of the torso. It is extracted as a set of lines that can be one side. Next, the two lines are extended until they are connected to generate a line that is a candidate for one side of the body contour (one side candidate line), and a line that may form a pair of each one side candidate line and the body contour (a symmetric line). ) To extract. This extraction may be performed based on, for example, whether or not there is a possibility of forming a recess facing the one-side candidate line. Further, a line symmetry axis between each one-side candidate line and the symmetry line is set, and it is determined whether an angle formed by both lines and the line-symmetric axis is within a predetermined angle. From the result, a one-side candidate that can be determined as a body contour is obtained. A pair of a line and a symmetric line is extracted. Lastly, the position, size,
On the basis of the interval and the direction of the axis of line symmetry, a region estimated to form an elliptical shape corresponding to the human face having the body contour is extracted as a face candidate region.

【0043】他方、胴体・眼部抽出部86において、眼
部抽出などの顔内部構造の抽出および円形状抽出による
顔抽出は、例えば、以下のように行われる。まず、前述
の顔輪郭抽出と同様にして画像の2値化による白領域と
黒領域を分別して、一般的な人の目から求められる、所
定範囲の長軸/単軸比を有する楕円形の黒領域を、顔内
部構造の一つであるの眼部に対応する可能性がある領域
(眼部候補領域とする)として抽出する。次に、抽出し
た眼部候補領域の長軸の角度を求め、長軸の角度差が所
定範囲内の楕円の黒領域を求め、先に抽出した眼部候補
領域と対を成す眼部候補領域として抽出する。このよう
にして抽出した各眼部候補領域の対に対して、両眼部候
補領域の中心を結ぶ線に垂直な線対称軸を設定して、線
対称類似度を判定し、それに応じて眼部と推定できる黒
領域を抽出する。最後に、抽出した眼部と推定できる黒
領域の位置、大きさ、および線対称軸の方向に基いて、
この黒領域を目とする人の顔に対応する楕円形状を成す
と推定される領域を抽出して、顔候補領域とする。な
お、抽出される顔内部構造としては、眼部が好ましい
が、本発明はこれに限定されず、眼部の他、口部や鼻部
や耳部などを抽出するようにしてもよい。
On the other hand, in the torso / eye extraction unit 86, extraction of a face internal structure such as eye extraction and face extraction by circular shape extraction are performed, for example, as follows. First, a white region and a black region are binarized by binarizing an image in the same manner as in the above-described face outline extraction, and an elliptical shape having a long axis / single axis ratio in a predetermined range obtained from general human eyes is obtained. A black region is extracted as a region that may correspond to the eye, which is one of the face internal structures (referred to as an eye candidate region). Next, an angle of the major axis of the extracted eye candidate region is obtained, an elliptical black region in which the angle difference of the major axis is within a predetermined range is obtained, and an eye candidate region forming a pair with the previously extracted eye candidate region. Extract as For each pair of eye candidate regions extracted in this manner, a line symmetry axis perpendicular to the line connecting the centers of the binocular candidate regions is set, the line symmetry similarity is determined, and the eye A black region that can be estimated as a part is extracted. Finally, based on the position, size, and direction of the axis of symmetry of the black region that can be estimated as the extracted eye,
A region estimated to form an elliptical shape corresponding to the face of a person who looks at the black region as an eye is extracted as a face candidate region. The extracted face internal structure is preferably an eye, but the present invention is not limited to this. The mouth, the nose, the ear, and the like may be extracted in addition to the eye.

【0044】胴体・眼部抽出部86における顔領域の抽
出結果は、前述の合成・結果判定部82で合成された顔
領域と共に、主要部判定部88に送られる。主要部判定
部88は、合成・結果判定部82で合成された顔領域
と、胴体・眼部抽出部86で、眼部抽出および円形状抽
出によって抽出された顔領域と、胴体抽出および円形状
抽出によって抽出された顔領域とを合成して、所定の基
準を満たした領域を画像の顔領域として、その情報を設
定部72Bに供給する。この判定は、例えば、全抽出方
法の重複領域のみを顔領域として判定する方法や、各抽
出方法に重み付け点数を設定し、その合計点数が所定の
点数以上となった画素の領域を顔領域として判定する方
法が例示される。
The result of extraction of the face region by the torso / eye portion extraction section 86 is sent to the main portion determination section 88 together with the face area synthesized by the synthesis / result determination section 82 described above. The main part determination unit 88 includes a face region synthesized by the synthesis / result determination unit 82, a face region extracted by the torso / eye extraction unit 86 by eye extraction and circular shape extraction, a torso extraction and circular shape The extracted face area is combined with the extracted face area, and an area that satisfies a predetermined criterion is set as the face area of the image, and the information is supplied to the setting unit 72B. For this determination, for example, a method of determining only an overlapping region of all extraction methods as a face region, or setting a weighted score for each extraction method, and defining a region of pixels whose total score is equal to or greater than a predetermined score as a face region A determination method is exemplified.

【0045】また、前述の合成・結果判定部82で行っ
た操作と同様にして、全抽出方法で抽出した顔領域を合
成して抽出結果の適否を判定し、適正となった場合の
み、顔領域の判定を行ってもよい。なお、抽出結果が適
正ではないと判断した場合には、顔抽出を行わない画像
処理条件の設定、画像読取のやり直し等の処置を行えば
よい。
In the same manner as in the operation performed by the combining / result determining section 82, the face regions extracted by the full extraction method are combined to determine the suitability of the extracted result. The determination of the area may be performed. If it is determined that the extraction result is not appropriate, measures such as setting image processing conditions for not performing face extraction and redoing image reading may be performed.

【0046】本発明において、被写体の抽出方法はこれ
に限定はされず、例えば、頭髪部抽出や非背景部抽出等
も好適に利用可能である。これらは、補助被写体抽出や
顔抽出の補助情報として、好適に例示される。
In the present invention, the method of extracting a subject is not limited to this, and for example, extraction of a hair portion, extraction of a non-background portion, and the like can be suitably used. These are preferably exemplified as auxiliary information for auxiliary subject extraction and face extraction.

【0047】頭髪部抽出の方法としては、例えば、以下
の方法が例示される。まず、前述の顔輪郭抽出と同様に
して画像の2値化による白領域と黒領域を分割し、黒領
域の輪郭のトレースを行い、輪郭の曲率を演算する。次
いで、この曲率から、人の頭頂部に相当すると考えられ
る凸部および顔と頭髪部との境界に相当すると考えられ
る凹部の両者を備える黒領域を抽出して、その凹部と凸
部の特徴量、例えば、円曲率を算出して、この円曲率を
用いて、円曲度、輪郭周囲長に対する凹部と凸部の比
率、輪郭の位置や方向等から、人物の頭髪部であると推
定できる輪郭を抽出し、この頭髪部を有する人の顔に対
応する楕円形状を成すと推定される領域を抽出して、顔
候補領域とする。
As a method of extracting the hair portion, for example, the following method is exemplified. First, a white area and a black area are divided by binarizing an image in the same manner as in the face outline extraction described above, and the outline of the black area is traced to calculate the curvature of the outline. Next, from this curvature, a black region including both a convex portion that is considered to correspond to the top of a person and a concave portion that is considered to correspond to the boundary between the face and the hair portion is extracted, and the characteristic amount of the concave portion and the convex portion is extracted. For example, by calculating a circular curvature, using the circular curvature, a contour that can be estimated to be a person's hair part from the degree of circularity, a ratio of a concave part to a convex part with respect to the contour perimeter, the position and direction of the contour, and the like. Is extracted, and an area that is presumed to form an elliptical shape corresponding to the face of the person having the hair is extracted as a face candidate area.

【0048】非背景部抽出の方法は、例えば、以下の方
法が例示される。まず、前述の顔輪郭抽出と同様にして
画像の2値化による白領域と黒領域を分割し、各領域の
輪郭をトレースして輪郭中の直線の比率を算出し、直線
が所定比率以上の領域に重み係数を付与する。次いで、
各輪郭に画像の上下方向に伸びる線対称軸を設定し、線
対称度を算出し、線対称度が所定値以下の領域に重み係
数を付与する。次いで、各輪郭の画像外縁部との接触率
を算出し、この接触率が所定値以上の領域に重み係数を
付与する。次いで、各領域内部の濃度コントラストを算
出し、コントラストが所定値以下の領域に負の重み係数
を付与する。さらに、各領域内部の濃度値を異なる複数
の所定方向に微分して、複数の方向に沿った微分値のい
ずれかが規則的に変化している領域、すなわち濃度が所
定のパターンで変化し、あるいはこれを繰り返している
領域に重み係数を付与する。以上の操作で重み係数を付
与された領域は、いずれも、人物である確率が低い領域
であり、この重み係数が所定値以上となった領域は、画
像の背景部であると判断できるので、これを顔抽出に利
用することができる。
As a method of extracting the non-background portion, for example, the following method is exemplified. First, a white region and a black region are divided by binarizing an image in the same manner as in the above-described face outline extraction, and the outline of each region is traced to calculate the ratio of straight lines in the outline. A weight coefficient is assigned to the region. Then
A line symmetry axis extending in the vertical direction of the image is set for each contour, the degree of line symmetry is calculated, and a weight coefficient is assigned to an area where the degree of line symmetry is equal to or less than a predetermined value. Next, the contact rate of each contour with the outer edge of the image is calculated, and a weight coefficient is assigned to an area where the contact rate is equal to or more than a predetermined value. Next, the density contrast inside each area is calculated, and a negative weight coefficient is given to the area where the contrast is equal to or less than a predetermined value. Further, the density value inside each area is differentiated in a plurality of different predetermined directions, and an area in which any of the differential values along the plurality of directions changes regularly, that is, the density changes in a predetermined pattern, Alternatively, a weight coefficient is assigned to a region where this is repeated. All of the regions to which the weight coefficient is given by the above operation are regions where the probability of being a person is low, and the region where the weight coefficient is equal to or more than a predetermined value can be determined to be the background portion of the image. This can be used for face extraction.

【0049】なお、上述した各種の被写体抽出方法は、
本出願人にかかる特開平8−184925公報等に詳述
される。また、本発明においては、これ以外にも、公知
の各種の被写体抽出方法が利用可能であり、例えば、特
開平4−346332号、同4−346333号、同4
−346334号、同5−100328号、同5−15
8164号、同5−165119号、同5−16512
0号、同6−67320号、同6−160992号、同
6−160993号、同6−160994号、同6−1
60995号、同8−122944号、同9−8065
2号、同9−101579号、同9−138470号、
同9−138471号の各公報等に開示される、各種の
被写体抽出方法が例示される。
It should be noted that the various subject extraction methods described above
It is described in detail in Japanese Patent Application Laid-Open No. 8-184925, etc. of the present applicant. In addition, in the present invention, various other known subject extraction methods can be used. For example, Japanese Patent Application Laid-Open Nos. 4-346332, 4-346333, and 4
-346334, 5-100328, 5-15
Nos. 8164, 5-165119 and 5-16512
No. 0, No. 6-67320, No. 6-160992, No. 6-160993, No. 6-160994, No. 6-1
No. 60995, No. 8-122944, No. 9-8065
No. 2, 9-101579, 9-138470,
Various types of subject extraction methods disclosed in each publication of JP-A-9-138471 are exemplified.

【0050】ところで、各種の被写体抽出方法におい
て、ストロボ撮影や逆光シーンでは、顔抽出の精度は低
下する傾向にあり、しかも、誤抽出による画質への悪影
響が通常に比して大きくなってしまうため、顔抽出を高
精度に行うのが好ましい。そのため、本発明の主要被写
体抽出方法においては、先の合成・結果判定部82にお
いて抽出結果が適正であると判断され、合成・結果判定
部82で合成した顔領域を用いて主要部判定部88で主
要部を判定した際においても、判定した主要部の画像特
徴量が所定範囲をから外れる場合、主要部の画像濃度が
所定範囲を超える場合、主要部の画像濃度と全体の画像
濃度の平均値の差が所定範囲を超える場合には、胴体・
眼部抽出部86等で行われる補助被写体抽出を行って、
この抽出結果を加味して主要部の判定を行うのが好まし
い。
In various subject extraction methods, the accuracy of face extraction tends to be lower in flash photography and backlight scenes, and the adverse effect on image quality due to erroneous extraction is larger than usual. It is preferable to perform face extraction with high accuracy. Therefore, in the main subject extracting method of the present invention, the combining / result determining unit 82 determines that the extraction result is appropriate, and uses the face area combined by the combining / result determining unit 82 to determine the main part determining unit 88. Even when the main part is determined in the above, if the image feature amount of the determined main part is out of the predetermined range, if the image density of the main part exceeds the predetermined range, the average of the image density of the main part and the entire image density If the value difference exceeds the specified range,
By performing auxiliary subject extraction performed by the eye extraction unit 86 and the like,
It is preferable to determine the main part in consideration of the extraction result.

【0051】また、同様に合成・結果判定部82で抽出
結果が適正であると判断され、合成した顔領域を用いて
主要部判定部88で主要部を判定した際に、複数の領域
が主要部として判定され、各主要部間の濃度値が所定値
以上の差がある場合も、胴体・眼部抽出部86等で行わ
れる補助被写体抽出を行って、この抽出結果を加味して
主要部の判定を行うのが好ましい。ストロボ撮影等で暗
部と明部との濃度差が大きい場合に、明部および暗部の
両方で主要部が抽出された場合には、通常、両者を単純
平均して画像処理条件を設定している。ところが、この
ような場合は、明部あるいは暗部の1方のみの抽出が適
正である場合も少なくなく、主要部の誤抽出が画質に悪
影響を与える。そのため、この際にも、顔抽出を高精度
に行うのが好ましく、補助被写体抽出を行うのが好まし
い。
Similarly, when the combining / result determining section 82 determines that the extraction result is appropriate and the main portion determining section 88 determines the main part using the combined face area, a plurality of areas are determined. Also, when there is a difference in the density value between the main parts that is equal to or more than a predetermined value, the auxiliary subject extraction performed by the torso / eye part extraction unit 86 and the like is performed, and the main part is extracted in consideration of the extraction result. Is preferably determined. In the case where the density difference between the dark part and the light part is large in flash photography or the like, and when the main part is extracted in both the light part and the dark part, the image processing conditions are usually set by simply averaging both parts. . However, in such a case, it is often the case that only one of the bright part and the dark part is appropriate, and erroneous extraction of the main part adversely affects the image quality. Therefore, in this case as well, it is preferable to perform face extraction with high accuracy, and it is preferable to perform auxiliary subject extraction.

【0052】本発明の主要被写体抽出方法を実施する本
発明の主要被写体抽出装置の具体的一実施例として図4
に示すセットアップ部72の主要部抽出部72Aは、基
本的に以上のように構成されるが、本発明はこれに限定
されず、図6および図7に示すような構成を有する主要
被写体抽出装置を主要部抽出部72Aに適用してもよ
い。図6に示す主要部抽出部72Aを構成する主要被写
体抽出装置90は、開始(スタート)部91と、N(N
は1以上の整数)段カスケード接続されるN個の抽出ユ
ニット92(921 )、922 、……、92N と、終了
(エンド)部93とを有する。ここで、開始部91は、
プレスキャンメモリ52からプレスキャンデータ読み出
し、種々の被写体抽出アルゴリズムを開始するため、以
下に続くN段の抽出ユニット92に必要な画像データを
渡すための部位である。また、終了部93は、本発明に
おける主要被写体抽出方法の実施によって得られた主要
被写体の情報を取得し、セットアップ部72の設定部7
2Bに送るための部位である。抽出ユニット92は、主
要部となる被写体を抽出するための部位であり、どのよ
うな被写体をどのようにして抽出するかは特に制限的で
はなく、必要に応じて種々の主要部となる被写体を抽出
すればよく、それぞれの抽出ユニット921 、922
……、92N は、カスケード接続される必要があるが、
異なる被写体抽出アルゴリズムによって主要被写体の抽
出を行うものであるのが好ましい。
FIG. 4 shows a specific embodiment of the main subject extracting apparatus of the present invention for implementing the main subject extracting method of the present invention.
The main part extraction unit 72A of the setup unit 72 shown in FIG. 7 is basically configured as described above, but the present invention is not limited to this, and the main subject extraction device having the configuration shown in FIGS. May be applied to the main part extraction unit 72A. The main subject extraction device 90 constituting the main portion extraction unit 72A shown in FIG. 6 includes a start (start) unit 91 and N (N
, Cascade-connected N extraction units 92 (92 1 ), 92 2 ,..., 92 N and an end unit 93. Here, the start unit 91
This is a part for transferring necessary image data to the following N-stage extraction units 92 to read out pre-scan data from the pre-scan memory 52 and start various subject extraction algorithms. The ending unit 93 obtains information on the main subject obtained by performing the main subject extraction method according to the present invention, and sets the setting unit 7 of the setup unit 72.
This is a part for sending to 2B. The extraction unit 92 is a part for extracting a subject serving as a main part, and what kind of subject is extracted is not particularly limited, and various kinds of main subject may be extracted as necessary. The extraction units 92 1 , 92 2 ,
……, 92 N need to be cascaded,
It is preferable that the main subject is extracted by a different subject extraction algorithm.

【0053】各抽出ユニット92は、図7に示すように
並列処理される特性の異なる被写体抽出を行うMn(図
示例ではk(kは0以上の整数))種の抽出サブユニッ
ト94(941 )、……、94k と、各抽出サブユニッ
ト94の結果により被写体抽出の条件判定を行う条件判
定部96とを有する。なお、各抽出ユニット92内の抽
出サブユニット94の個数Mnは、n段目の抽出ユニッ
ト92n の抽出サブユニット94の個数を表し、0以上
の整数であれば、各抽出ユニット92毎に異なっていて
もよい。すなわち、抽出ユニット92としては、並列処
理される2種以上の抽出サブユニット94と各抽出サブ
ユニット94の結果により被写体抽出の条件判定を行う
条件判定部96とを有するユニットを少なくとも1つ含
んでいる必要があるが、この他、ただ1個の抽出サブユ
ニット94のみを有するユニットや1個の抽出サブユニ
ット94と条件判定部96を有するユニットを少なくと
も1つ含んでいてもよいし、全く抽出サブユニットを有
さず、カスケード接続された前段の抽出ユニット92の
結果により、抽出された被写体の条件判定を行う条件判
定部96のみを持つユニットを少なくとも1つ含んでい
てもよい。
As shown in FIG. 7, each extraction unit 92 extracts Mn (k (k is an integer of 0 or more in the illustrated example)) kinds of extraction subunits 94 (94 1 ) for extracting subjects having different characteristics to be processed in parallel. ),..., 94 k, and a condition determination unit 96 for determining a condition for subject extraction based on the result of each extraction subunit 94. The number Mn of the extraction subunits 94 in each extraction unit 92 represents the number of the extraction subunits 94 of the n-th stage extraction unit 92 n. May be. That is, the extraction unit 92 includes at least one unit having at least two types of extraction sub-units 94 to be processed in parallel and a condition determination unit 96 for performing a condition determination for subject extraction based on the result of each extraction sub-unit 94. However, in addition to this, it may include at least one unit having only one extraction subunit 94 or one unit having one extraction subunit 94 and the condition determination unit 96, or may not include at least one extraction subunit 94. At least one unit having no sub-unit and having only the condition determination unit 96 for determining the condition of the extracted subject based on the result of the cascade-connected extraction unit 92 in the preceding stage may be included.

【0054】ここで、抽出サブユニット94は、特性の
異なる被写体抽出を行うものであれば、特に制限的では
なく、どのような方法やアルゴリズムを行うものであっ
てもよいし、どのような被写体を抽出するものであって
もよい。例えば、主要部として人物の顔を抽出する場合
には、抽出サブユニット94としては、肌色抽出部、顔
輪郭抽出部、円形状抽出部、胴体抽出部、眼部抽出部ま
たは顔内部構造抽出部、頭髪部抽出部、非背景部抽出
部、ならびに肌色抽出、顔輪郭抽出、円形状抽出、胴体
抽出、眼部抽出または顔内部構造抽出頭髪部抽出および
非背景部抽出の少なくとも2種の抽出を行う抽出部を挙
げることができるが、好ましくは、抽出ユニット92に
は、これらの種々の抽出部から選択される2つ以上を有
しているのがよい。
Here, the extraction sub-unit 94 is not particularly limited as long as it extracts a subject having different characteristics, and may use any method or algorithm, or any subject. May be extracted. For example, when a human face is extracted as a main part, the extraction subunit 94 includes a skin color extraction unit, a face outline extraction unit, a circular shape extraction unit, a body extraction unit, an eye extraction unit, or a face internal structure extraction unit. A hair part extraction part, a non-background part extraction part, and at least two kinds of extractions of skin color extraction, face contour extraction, circular shape extraction, body extraction, eye extraction or face internal structure extraction hair part extraction and non-background part extraction Although an extraction unit to be used can be mentioned, preferably, the extraction unit 92 has two or more selected from these various extraction units.

【0055】なお、図4に示す抽出部72Aのように、
抽出サブユニットとして肌色・円形状抽出部78および
顔輪郭・円形状抽出部80を1つの抽出ユニット内に有
し、胴体・眼部抽出部86をただ1個のみの抽出サブユ
ニットとして1つの抽出ユニット内に有する構成として
もよい。また、本発明においては、図4に示すように、
2種の抽出工程またはアルゴリズムを行う肌色・円形状
抽出部78、顔輪郭・円形状抽出部80および胴体・眼
部抽出部86を1個の抽出サブユニットとして用いても
よい。もちろん、1種の抽出工程またはアルゴリズムを
行う肌色抽出部、顔輪郭抽出部、円形状抽出部、胴体抽
出部、眼部抽出部、顔内部構造抽出部、頭髪部抽出部、
非背景部抽出部をそれぞれ1個の抽出サブユニットとし
て用いてもよい。または肌色抽出部、顔輪郭抽出部、円
形状抽出部などの主要な被写体抽出工程を行う抽出サブ
ユニットの少なくとも2種は、同一の抽出ユニット内で
並列処理するように構成するのが好ましく、できるだけ
上位の段に接続される抽出ユニットの構成要素とするが
よい。一方、頭髪部抽出、眼部抽出、顔内部構造抽出、
胴体抽出、非背景部抽出および円形状抽出部などの補助
被写体抽出工程を行う抽出サブユニットの少なくとも2
種は、同一の抽出ユニット内で並列処理するように構成
するのが好ましく、主要な被写体抽出工程を行う抽出サ
ブユニットを持つ抽出ユニットより後段の抽出ユニット
の構成要素とするのがよい。なお、上述した例では、複
数種の抽出サブユニットとして、異なる抽出工程または
アルゴリズムを行う抽出部を代表例として挙げている
が、本発明はこれに限定されず、特性の異なる被写体抽
出として、画像の解像度を多段階に変更して同一のアル
ゴリズムを適用する複数の抽出部を用いてもよい。
Incidentally, as in the extraction unit 72A shown in FIG.
The extraction unit includes a skin color / circle extraction unit 78 and a face outline / circle extraction unit 80 in one extraction unit, and the torso / eye extraction unit 86 is one extraction subunit. It may be configured to be provided in a unit. In the present invention, as shown in FIG.
The skin color / circular shape extracting unit 78, the face contour / circular shape extracting unit 80, and the torso / eye unit extracting unit 86 that perform two types of extraction steps or algorithms may be used as one extraction subunit. Of course, a skin color extraction unit, a face outline extraction unit, a circular shape extraction unit, a body extraction unit, an eye extraction unit, a face internal structure extraction unit, a hair extraction unit that performs one type of extraction process or algorithm,
Each of the non-background part extraction units may be used as one extraction subunit. Alternatively, it is preferable that at least two types of extraction subunits that perform a main subject extraction step, such as a skin color extraction unit, a face contour extraction unit, and a circular shape extraction unit, are configured to be processed in parallel in the same extraction unit. It may be a component of the extraction unit connected to the upper stage. On the other hand, hair extraction, eye extraction, face internal structure extraction,
At least two extraction sub-units that perform auxiliary subject extraction steps such as torso extraction, non-background part extraction, and circular shape extraction unit
The seeds are preferably configured to be processed in parallel in the same extraction unit, and may be a component of the extraction unit downstream of the extraction unit having the extraction subunit that performs the main subject extraction process. In the above-described example, as a plurality of types of extraction subunits, an extraction unit that performs different extraction steps or algorithms is described as a representative example. However, the present invention is not limited to this. May be used in multiple stages, and a plurality of extraction units applying the same algorithm may be used.

【0056】条件判定部96は、抽出サブユニット94
(941 、……、94k )によって抽出された各被写体
の候補が主要部または主要被写体として適当であるかど
うかの判定、あるいは各被写体、特に適当であると判定
された各被写体の抽出領域への重み付けを行い、かつそ
の判定結果または重み付けの結果を移行する、すなわ
ち、それらの結果に基づいて抽出処理を適用する後段ま
たは次段の少なくとも1つの抽出ユニット92を選択す
る。図7に示す例では、条件判定部96は、第i段の抽
出ユニット92への移行を選択している。このように、
カスケード接続される複数の抽出ユニット92は、1つ
次の段の抽出ユニット92のみならず、さらに後段の抽
出ユニット92への移行も可能である。ここで、図6に
示す例では、抽出ユニット921 および922 は、それ
ぞれ第i段および第j段の抽出ユニット92への移行を
選択している。ところで、カスケード接続された抽出ユ
ニット92の最後段の抽出ユニット92の条件判定部9
6は、最終的に主要被写体を抽出する主要被写体判定部
であるのが好ましい。
The condition judging section 96 includes an extraction sub-unit 94.
(94 1 ,..., 94 k ) to determine whether the candidate of each subject is appropriate as a main part or a main subject, or an extraction area of each subject, particularly each subject determined to be appropriate. , And the determination result or the weighting result is shifted, that is, at least one extraction unit 92 in the subsequent or next stage to which the extraction process is applied is selected based on the result. In the example illustrated in FIG. 7, the condition determination unit 96 has selected to shift to the extraction unit 92 at the i-th stage. in this way,
The plurality of extraction units 92 connected in cascade can be transferred not only to the next-stage extraction unit 92 but also to a subsequent-stage extraction unit 92. In the example shown in FIG. 6, the extraction unit 92 1 and 92 2 are selected each transition to the extraction unit 92 of the i stage and the j stage. By the way, the condition determination unit 9 of the last extraction unit 92 of the cascade-connected extraction units 92
Numeral 6 is preferably a main subject determination unit for finally extracting a main subject.

【0057】なお、条件判定部96は、各抽出サブユニ
ット94によって抽出された各被写体の抽出領域への重
み付けや各被写体候補の適否の判定、かつその結果を移
行する後段の1以上の抽出ユニット92を選択するもの
であれば、どのような判定や重み付けや後段抽出ユニッ
トの選択を行うものであってもよい。また、条件判定部
96の条件判定にオペレータが介在してもよい。図4に
示す抽出部72Aの場合には、条件判定部としては、並
列処理される複数の抽出サブユニットである肌色・円形
状抽出部78および顔輪郭・円形状抽出部80で抽出さ
れた特性の異なる被写体の候補を合成し、合成された複
数の候補の被写体の抽出領域から被写体抽出の結果が適
正か否かを判定する合成・結果判定部82や、最終的に
画像の主要部または主要被写体を判定する主要部判定部
88を挙げることができる。この主要部判定部88は、
抽出サブユニットを持たない最後段の抽出ユニット92
の条件判定部の1例とすることができる。セットアップ
部72の抽出部72Aに適用される本発明の主要被写体
抽出方法を実施する本発明の主要被写体抽出装置は基本
的に以上のように構成される。
The condition judging section 96 determines the weight of the extraction area of each subject extracted by each extraction sub-unit 94, determines whether or not each subject candidate is appropriate, and shifts the result to one or more extraction units at the subsequent stage. Any type of determination, weighting, and selection of a subsequent extraction unit may be performed as long as the selection is made to select 92. Further, an operator may intervene in the condition determination of the condition determining unit 96. In the case of the extracting unit 72A shown in FIG. 4, as the condition determining unit, the characteristics extracted by the skin color / circular shape extracting unit 78 and the face contour / circular shape extracting unit 80, which are a plurality of extraction subunits to be processed in parallel. And a combining / result determining unit 82 for determining whether or not the result of subject extraction is appropriate from a plurality of candidate subject extraction regions that have been combined. A main part determination unit 88 for determining a subject can be given. The main part determination unit 88
Last extraction unit 92 without extraction subunit
Can be an example of the condition determination unit. The main subject extracting apparatus of the present invention for implementing the main subject extracting method of the present invention applied to the extracting section 72A of the setup section 72 is basically configured as described above.

【0058】また、図6および図7に示す主要被写体抽
出装置によって、本発明の主要被写体抽出方法を実施す
ることができる。すなわち、ここで行われる主要被写体
抽出方法においては、カスケード接続された上述した抽
出ユニット921 、922 、……、92N において、そ
れぞれ上述した抽出ステップ(工程)が行われる。各抽
出ユニット92の抽出結果は、次々にカスケード接続さ
れた後段の抽出ステップの少なくとも1つに適用され
る。各抽出ユニット92内では、上述した抽出サブユニ
ット941 、……、94k において、上述したそれぞれ
の抽出サブステップが並列で行われる。その後、その抽
出ユニット92の条件判定部96においては、各抽出サ
ブステップの抽出領域の判定や重み付けやこれらの結果
を適用する後段の抽出ユニット92の選択などの条件判
定サブステップが行われる。各抽出ユニット92、各抽
出サブユニット94および条件判定部96においてそれ
ぞれ行われる各抽出ステップ、各抽出サブステップおよ
び条件判定サブステップなどの各処理ステップの詳細に
ついては、上述の通りであるので、その説明を省略す
る。以上のような本発明の主要被写体抽出方法は、全て
の処理ステップをソフトウエア処理として構成すること
もできるし、全ての処理ステップを行う全ての処理ユニ
ットからなるハードウエア処理として上述した本発明の
主要被写体抽出装置の如く構成することもできるし、各
処理ステップ毎にソフトウエアで処理するかユニット構
成のハードウエアで処理するかを使い分け、ソフトウエ
ア処理とハードウエア処理が混在する構成としてもよ
い。
Further, the main subject extracting method of the present invention can be carried out by the main subject extracting apparatus shown in FIGS. That is, in the main subject extraction method performed here, the above-described extraction steps (processes) are respectively performed in the above-described extraction units 92 1 , 92 2 ,..., 92 N connected in cascade. The extraction result of each extraction unit 92 is applied to at least one of the subsequent extraction steps cascaded one after another. In each extraction unit 92, the above-described extraction sub-steps are performed in parallel in the above-described extraction sub-units 94 1 ,..., 94 k . Thereafter, in the condition determination unit 96 of the extraction unit 92, a condition determination sub-step such as determination of an extraction area in each extraction sub-step, weighting, and selection of a subsequent extraction unit 92 to which these results are applied is performed. Details of each processing step such as each extraction step, each extraction sub-step, and condition determination sub-step performed in each extraction unit 92, each extraction sub-unit 94, and condition determination unit 96 are as described above. Description is omitted. In the main subject extraction method of the present invention as described above, all of the processing steps can be configured as software processing, or the above-described main processing of the present invention can be configured as hardware processing including all processing units that perform all processing steps. It can be configured as a main subject extraction device, or it can be configured such that software processing and hardware processing coexist, depending on whether processing is performed by software or unit configuration hardware for each processing step. .

【0059】セットアップ部72の設定部72Bは、プ
レスキャンメモリ52からプレスキャンデータを読み出
し、プレスキャンデータから、濃度ヒストグラムの作成
や、平均濃度、ハイライト(最低濃度)、シャドー(最
高濃度)等の画像特徴量の算出を行い、本スキャンの読
取条件を決定し、また、濃度ヒストグラムや画像特徴量
に加え、抽出部72Aが抽出した画像の主要部、さらに
は必要に応じて行われるオペレータによる指示等に応じ
て、グレイバランス調整、階調補正および濃度調整を行
うLUTの作成、MTX演算式の作成、鮮鋭度補正係数
の算出等、プレスキャン処理部56および本スキャン処
理部58における各種の画像処理条件を設定する。
The setting section 72B of the setup section 72 reads out the pre-scan data from the pre-scan memory 52 and creates a density histogram, average density, highlight (lowest density), shadow (highest density), etc. from the pre-scan data. Of the main scan of the image, and the main scanning part of the image extracted by the extraction unit 72A, as well as an operator performed as necessary, in addition to the density histogram and the image characteristic amount. Various kinds of operations in the pre-scan processing unit 56 and the main scan processing unit 58, such as creation of an LUT for performing gray balance adjustment, gradation correction and density adjustment, creation of an MTX operation formula, calculation of a sharpness correction coefficient, etc. Set image processing conditions.

【0060】キー補正部74は、キーボード18aに設
定された濃度(明るさ)、色、コントラスト、シャープ
ネス、彩度調等を調整するキーやマウス18bで入力さ
れた各種の指示等に応じて、画像処理条件の調整量を算
出し、パラメータ統合部76に供給するものである。パ
ラメータ統合部76は、設定部72Bが設定した画像処
理条件を受け取り、プレスキャン処理部56および本ス
キャン処理部58に設定し、さらに、キー補正部74で
算出された調整量に応じて、各部位に設定した画像処理
条件を補正(調整)し、あるいは画像処理条件を再設定
する。
The key correction unit 74 is provided with keys for adjusting the density (brightness), color, contrast, sharpness, saturation, etc., set on the keyboard 18a, and various instructions input with the mouse 18b. The adjustment amount of the image processing condition is calculated and supplied to the parameter integration unit 76. The parameter integrating unit 76 receives the image processing conditions set by the setting unit 72B, sets the image processing conditions in the pre-scan processing unit 56 and the main scan processing unit 58, and further, according to the adjustment amount calculated by the key correction unit 74, Correct (adjust) the image processing conditions set for the part, or reset the image processing conditions.

【0061】以下、スキャナ12および処理装置14の
作用を説明する。このフィルムFのプリント作成を依頼
されたオペレータは、フィルムFに対応するキャリア3
0をスキャナ12に装填し、キャリア30の所定位置に
フィルムF(カートリッジ)をセットし、作成するプリ
ントサイズ等の必要な指示を入力した後に、プリント作
成開始を指示する。これにより、スキャナ12の可変絞
り24の絞り値やイメージセンサ(ラインCCDセン
サ)34の蓄積時間がプレスキャンの読取条件に応じて
設定され、その後、キャリア30がフィルムFをカート
リッジから引き出して、プレスキャンに応じた速度で副
走査方向に搬送して、プレスキャンが開始され、前述の
ように所定の読取位置において、フィルムFがスリット
走査されて投影光がイメージセンサ34に結像して、フ
ィルムFに撮影された画像がR,GおよびBに分解され
て光電的に読み取られる。また、このフィルムFの搬送
の際に、磁気情報が読み出され、また、コードリーダ4
4によってDXコード等のバーコードが読まれ、必要な
情報が所定の部位に送られる。
Hereinafter, the operation of the scanner 12 and the processing device 14 will be described. The operator who is requested to make a print of the film F operates on the carrier 3 corresponding to the film F.
0 is loaded into the scanner 12, the film F (cartridge) is set at a predetermined position of the carrier 30, and necessary instructions such as a print size to be created are input, and then a print creation start is instructed. Thereby, the aperture value of the variable aperture 24 of the scanner 12 and the accumulation time of the image sensor (line CCD sensor) 34 are set according to the pre-scanning reading conditions. Thereafter, the carrier 30 pulls out the film F from the cartridge and presses the film F. The film F is conveyed in the sub-scanning direction at a speed corresponding to the can, and the pre-scan is started. At a predetermined reading position, the film F is slit-scanned, and the projection light forms an image on the image sensor 34 as described above. An image captured at F is separated into R, G, and B and photoelectrically read. When the film F is transported, magnetic information is read out, and the code reader 4
A bar code such as a DX code is read by 4 and necessary information is sent to a predetermined portion.

【0062】なお、プレスキャンおよび本スキャンは、
1コマずつ行ってもよく、全コマあるいは所定の複数コ
マずつ、連続的にプレスキャンおよび本スキャンを行っ
てもよい。以下の例では、説明を簡潔にするために、1
コマの画像読取を例に説明を行う。
The pre-scan and the main scan include
The prescan and the main scan may be performed one frame at a time, or continuously for all frames or for a predetermined plurality of frames. In the following example, for simplicity, 1
The description will be given by taking the image reading of a frame as an example.

【0063】プレスキャンによるイメージセンサ34の
出力信号は、アンプ36で増幅されて、A/D変換器3
8に送られ、デジタル信号とされる。デジタル信号は、
処理装置14に送られ、データ処理部48で所定のデー
タ処理を施され、Log変換器50でデジタルの画像デ
ータであるプレスキャンデータとされ、プレスキャンメ
モリ52に記憶される。
The output signal of the image sensor 34 due to the pre-scan is amplified by the amplifier 36 and is output from the A / D converter 3.
8 and converted into a digital signal. The digital signal is
The data is sent to the processing device 14, subjected to predetermined data processing by the data processing unit 48, converted into digital image data by the Log converter 50, and stored in the prescan memory 52.

【0064】プレスキャンメモリ52にプレスキャンデ
ータが記憶されると、条件設定部60のセットアップ部
72がこれを読み出し、抽出部72Aおよび設定部72
Bに供給する。抽出部72Aにおいては、前述のよう
に、肌色・円形状抽出部78および顔輪郭・円形状抽出
部80でそれぞれ顔候補領域が抽出され、合成・結果判
定部82において両抽出部による顔候補領域が合成され
て、抽出結果が判定され、適正である場合には、切換部
84によって主要部判定部88に送られて主要部が判定
されて、判定された主要部の情報が設定部72Bに送ら
れる。他方、合成・結果判定部82で抽出結果が非適正
である判断された場合には、切換部84によって合成結
果や画像データが胴体・眼部抽出部86に送られ、胴体
抽出や眼部抽出を利用する顔抽出がさらに行われ、抽出
結果が主要部判定部88に送られて、主要部が判定され
て主要部の情報が設定部72Bに送られる。
When the pre-scan data is stored in the pre-scan memory 52, the setup unit 72 of the condition setting unit 60 reads out the pre-scan data, and the extraction unit 72A and the setting unit 72
B. In the extraction unit 72A, the face candidate area is extracted by the skin color / circular shape extraction unit 78 and the face contour / circular shape extraction unit 80, respectively, as described above. Are combined, and the extraction result is determined. If the extraction result is appropriate, the switching unit 84 sends the extracted result to the main part determination unit 88 to determine the main part. The information of the determined main part is transmitted to the setting unit 72B. Sent. On the other hand, if the combining / result determining unit 82 determines that the extraction result is inappropriate, the switching unit 84 sends the combining result and image data to the torso / eye extracting unit 86, and extracts the torso and the eye. Is further extracted, the extraction result is sent to the main part determination unit 88, the main part is determined, and information on the main part is sent to the setting unit 72B.

【0065】設定部72Bは、プレスキャンデータか
ら、画像の濃度ヒストグラムの作成、ハイライトやシャ
ドー等の画像特徴量の算出等を行い、本スキャンの読取
条件を設定してスキャナ12に供給し、さらに、濃度ヒ
ストグラムや算出した画像特徴量に加え、さらに、抽出
部72Aが抽出した主要部、必要に応じて行われるオペ
レータの指示を加味して、処理部66における画像処理
条件を設定し、パラメータ統合部76に供給する。パラ
メータ統合部76は、受け取った画像処理条件をプレス
キャン処理部56および本スキャン処理部58の所定部
位(ハードウエア)に設定する。
The setting section 72B creates a density histogram of an image from the pre-scan data, calculates an image feature amount such as highlight and shadow, sets read conditions for the main scan, and supplies the scan conditions to the scanner 12. Further, in addition to the density histogram and the calculated image feature amounts, the image processing conditions in the processing unit 66 are set by taking into account the main parts extracted by the extraction unit 72A and the instructions of the operator performed as necessary. It is supplied to the integration unit 76. The parameter integrating unit 76 sets the received image processing conditions in predetermined portions (hardware) of the pre-scan processing unit 56 and the main scan processing unit 58.

【0066】検定を行う場合には、プレスキャンデータ
が処理部62によってプレスキャンメモリ52から読み
出され、処理部62で処理され、画像データ変換部64
で変換されて、シュミレーション画像としてディスプレ
イ20に表示される。オペレータは、ディスプレイ20
の表示を見て、画像すなわち処理結果の確認(検定)を
行い、必要に応じて、キーボード18aに設定された調
整キー等を用いて色、濃度、階調等を調整する。この調
整の入力は、キー補正部74に送られ、キー補正部74
は調整入力に応じた画像処理条件の補正量を算出し、こ
れをパラメータ統合部76に送る。パラメータ統合部7
6は、送られた補正量に応じて、前述のように、処理部
62および66のLUTやMTX等を補正する。従っ
て、この補正すなわちオペレータによる調整入力に応じ
て、ディスプレイ20に表示される画像も変化する。
When performing the test, the pre-scan data is read from the pre-scan memory 52 by the processing unit 62, processed by the processing unit 62, and processed by the image data conversion unit 64.
And displayed on the display 20 as a simulation image. The operator operates the display 20
, The image, that is, the processing result is checked (verified), and the color, density, gradation, and the like are adjusted as necessary using the adjustment keys and the like set on the keyboard 18a. The input of this adjustment is sent to the key correction unit 74, and the key correction unit 74
Calculates the correction amount of the image processing condition according to the adjustment input, and sends it to the parameter integration unit 76. Parameter integration unit 7
6 corrects the LUT, MTX, and the like of the processing units 62 and 66 according to the correction amount sent as described above. Therefore, the image displayed on the display 20 also changes according to the correction, that is, the adjustment input by the operator.

【0067】オペレータは、このコマの画像が適正(検
定OK)であると判定すると、キーボード18a等を用
いてプリント開始を指示する。これにより、画像処理条
件が確定し、スキャナ12において可変絞り24の絞り
値等が設定された本スキャンの読取条件に応じて設定さ
れると共に、キャリア30が本スキャンに対応する速度
でフィルムFを搬送し、本スキャンが開始される。な
お、検定を行わない場合には、パラメータ統合部76に
よる本スキャン処理部58への画像処理条件の設定を終
了した時点で画像処理条件が確定し、本スキャンが開始
される。
When the operator determines that the image of this frame is proper (OK), the operator instructs the start of printing using the keyboard 18a or the like. As a result, the image processing conditions are fixed, the aperture value of the variable aperture 24 is set in the scanner 12 in accordance with the reading conditions of the main scan, and the carrier 30 moves the film F at a speed corresponding to the main scan. Then, the main scan is started. If the verification is not performed, the image processing conditions are determined when the setting of the image processing conditions in the main scan processing unit 58 by the parameter integration unit 76 is completed, and the main scan is started.

【0068】本スキャンは、可変絞り24の絞り値等の
読取条件が設定された本スキャンの読取条件となる以外
はプレスキャンと同様に行われ、イメージセンサ34か
らの出力信号はアンプ36で増幅されて、A/D変換器
38でデジタル信号とされ、処理装置14のデータ処理
部48で処理されて、Log変換器50で本スキャンデ
ータとされ、本スキャンメモリ54に送られる。本スキ
ャンデータが本スキャンメモリ54に送られると、本ス
キャン処理部58によって読み出され、処理部66にお
いて確定した画像処理条件で画像処理され、次いで、画
像データ変換部68で変換されて出力用の画像データと
され、プリンタ16に出力される。
The main scan is performed in the same manner as the pre-scan except that the read conditions such as the aperture value of the variable aperture 24 are set, and the output signal from the image sensor 34 is amplified by the amplifier 36. Then, the digital signal is converted into a digital signal by the A / D converter 38, processed by the data processing unit 48 of the processing device 14, converted into main scan data by the Log converter 50, and sent to the main scan memory 54. When the main scan data is sent to the main scan memory 54, the main scan data is read out by the main scan processing unit 58, subjected to image processing under the image processing conditions determined in the processing unit 66, and then converted by the image data conversion unit 68 and output. Is output to the printer 16.

【0069】プリンタ16は、供給された画像データに
応じて感光材料(印画紙)を露光して潜像を記録するプ
リンタ(焼付装置)と、露光済の感光材料に所定の処理
を施してプリントとして出力するプロセサ(現像装置)
とを有する。プリンタでは、例えば、感光材料をプリン
トに応じた所定長に切断した後に、バックプリントを記
録し、次いで、感光材料の分光感度特性に応じたR露
光、G露光およびB露光の3種の光ビームを処理装置1
4から出力された画像データに応じて変調して主走査方
向に偏向すると共に、主走査方向と直交する副走査方向
に感光材料を搬送することにより、前記光ビームで感光
材料を2次元的に走査露光して潜像を記録し、プロセサ
に供給する。感光材料を受け取ったプロセサは、発色現
像、漂白定着、水洗等の所定の湿式現像処理を行い、乾
燥してプリントとし、フィルム1本分等の所定単位に仕
分して集積する。
The printer 16 exposes a photosensitive material (printing paper) in accordance with the supplied image data to record a latent image, and a printer (printing device) that performs a predetermined process on the exposed photosensitive material to perform printing. Processor (developing device) that outputs as
And In a printer, for example, after cutting a photosensitive material into a predetermined length corresponding to a print, a back print is recorded, and then three types of light beams of R exposure, G exposure, and B exposure according to the spectral sensitivity characteristics of the photosensitive material. Processing unit 1
The light beam is conveyed in the sub-scanning direction orthogonal to the main scanning direction by modulating the light-sensitive material in the main scanning direction and modulated in accordance with the image data output from the photodetector 4, thereby two-dimensionally transforming the photosensitive material by the light beam. The latent image is recorded by scanning exposure and supplied to the processor. The processor that has received the photosensitive material performs a predetermined wet development process such as color development, bleach-fixing, and washing with water, and forms a print by drying, and sorts and accumulates it into a predetermined unit such as one film.

【0070】ところで、上述した例では、主要部として
人物の顔を抽出する場合について説明したが、本発明は
これに限定されず、主要部として人物の顔以外のもの、
例えば、ペット、馬などの動物、自動車、山、湖などを
抽出してもよい。この場合には、選択された主要部に適
した色や形状を用いた抽出アルゴリズムを選択すればよ
い。また、上述した例では、1コマに画像内の主要被写
体を抽出する場合について説明したが、本発明はこれに
限定されず、抽出ユニットの条件判定部における各被写
体の抽出領域(エリア)への重み付けにおいて、同一件
内の他のコマの被写体の抽出領域との類似性を用いても
よい。すなわち、先のコマの画像における主要被写体の
抽出領域と現在抽出対象としているコマの画像の主要被
写体の抽出領域との類似性を用いて、現在抽出対象のコ
マの画像の主要被写体の抽出領域への重み付けを行って
もよい。例えば、抽出領域の大きさを正規化した後に、
テンプレートマッチング的な類似性を見ることができ
る。あるいは、抽出領域のヒストグラムを取って、濃度
分布の類似性を見ることもできる。この他、色などの画
像特徴量によって画像の類似性を見ることもできる。こ
のように、同一件内の他のコマとの類似性を用いること
により、さらに、主要被写体の抽出に要する演算時間を
短縮することができる。
By the way, in the above-described example, the case where the face of a person is extracted as the main part has been described. However, the present invention is not limited to this.
For example, pets, animals such as horses, cars, mountains, lakes, etc. may be extracted. In this case, an extraction algorithm using colors and shapes suitable for the selected main part may be selected. Further, in the above-described example, the case where the main subject in the image is extracted in one frame has been described. However, the present invention is not limited to this, and the extraction of the subject to the extraction area (area) in the condition determination unit of the extraction unit is described. In the weighting, the similarity to the subject extraction area of another frame in the same matter may be used. That is, by using the similarity between the main subject extraction region in the previous frame image and the main subject extraction region in the current frame image to be extracted, the main subject extraction region in the current frame image is extracted. May be weighted. For example, after normalizing the size of the extraction area,
You can see similarities in template matching. Alternatively, the similarity of the density distribution can be checked by taking a histogram of the extraction area. In addition, the similarity of images can be checked by image feature amounts such as colors. As described above, by using the similarity with other frames in the same case, the calculation time required for extracting the main subject can be further reduced.

【0071】以上、本発明の主要被写体抽出方法および
装置について詳細に説明したが、本発明は上記実施例に
限定はされず、本発明の要旨を逸脱しない範囲におい
て、各種の改良および変更を行ってもよいのはもちろん
である。
Although the main subject extracting method and apparatus of the present invention have been described in detail above, the present invention is not limited to the above embodiments, and various improvements and changes can be made without departing from the scope of the present invention. Of course, you may.

【0072】[0072]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、デジタルフォトプリンタ等のフォトプリンタに
おいて、高精度な主要被写体の抽出を、良好な効率で、
様々な状態の画像に対応して安定して行うことができ、
高画質な画像が再生された高品位なプリントを、良好な
効率で作成することができる。
As described above in detail, according to the present invention, in a photo printer such as a digital photo printer, highly accurate extraction of a main subject can be performed with good efficiency.
It can be performed stably in response to images in various states,
A high-quality print in which a high-quality image is reproduced can be created with good efficiency.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の主要被写体抽出方法および装置の一
例を利用するデジタルフォトプリンタのブロック図であ
る。
FIG. 1 is a block diagram of a digital photo printer using an example of a main subject extraction method and apparatus of the present invention.

【図2】 (A)は、図1に示されるデジタルフォトプ
リンタに装着されるキャリアを説明するための概略斜視
図、(B)は図1に示されるデジタルフォトプリンタの
イメージセンサの概念図である。
2A is a schematic perspective view for explaining a carrier mounted on the digital photo printer shown in FIG. 1, and FIG. 2B is a conceptual diagram of an image sensor of the digital photo printer shown in FIG. is there.

【図3】 図1に示されるデジタルフォトプリンタの画
像処理装置のブロック図である。
FIG. 3 is a block diagram of an image processing apparatus of the digital photo printer shown in FIG.

【図4】 図3に示される画像処理装置の抽出部のブロ
ック図である。
4 is a block diagram of an extraction unit of the image processing device shown in FIG.

【図5】 図4に示される抽出部における抽出結果判定
方法の一例を説明するための図である。
FIG. 5 is a diagram for explaining an example of an extraction result determination method in the extraction unit shown in FIG.

【図6】 図3に示される画像処理装置の抽出部に適用
される本発明の主要被写体抽出装置の一実施例のブロッ
ク図である。
6 is a block diagram of an embodiment of a main subject extracting apparatus according to the present invention applied to the extracting unit of the image processing apparatus shown in FIG. 3;

【図7】 図6に示される本発明の主要被写体抽出装置
の抽出ユニットの一実施例のブロック図である。
FIG. 7 is a block diagram of an embodiment of the extraction unit of the main subject extraction device of the present invention shown in FIG. 6;

【符号の説明】[Explanation of symbols]

10 (デジタル)フォトプリンタ 12 スキャナ 14 (画像)処理装置 16 プリンタ 18 操作系 20 ディスプレイ 22 光源 24 可変絞り 28 拡散ボックス 30 キャリア 32 結像レンズユニット 34 イメージセンサ 34R,34G,34B ラインCCDセンサ 36 アンプ 38 A/D変換器 40 マスク 44 コードリーダ 48 データ処理部 50 Log変換器 52 プレスキャン(フレーム)メモリ 54 本スキャン(フレーム)メモリ 56 プレスキャン処理部 58 本スキャン処理部 60 条件設定部 62,66 (画像データ)処理部 64,68 画像データ変換部 72 セットアップ部 72A (主要部)抽出部 72B 設定部 74 キー補正部 76 パラメータ統合部 78 肌色・円形状抽出部 80 顔輪郭・円形状抽出部 82 合成・結果判定部 86 胴体・眼部抽出部 88 主要部判定部 90 主要被写体抽出部 91 開始部 92,921 ,921 ,…92N 抽出ユニット 93 終了部 94,941 ,…94k 抽出サブユニット 96 条件判定部10 (Digital) Photo Printer 12 Scanner 14 (Image) Processing Device 16 Printer 18 Operation System 20 Display 22 Light Source 24 Variable Aperture 28 Diffusion Box 30 Carrier 32 Imaging Lens Unit 34 Image Sensor 34R, 34G, 34B Line CCD Sensor 36 Amplifier 38 A / D converter 40 Mask 44 Code reader 48 Data processing unit 50 Log converter 52 Prescan (frame) memory 54 Main scan (frame) memory 56 Prescan processing unit 58 Main scan processing unit 60 Condition setting unit 62, 66 ( Image data) processing unit 64, 68 image data conversion unit 72 setup unit 72A (main part) extraction unit 72B setting unit 74 key correction unit 76 parameter integration unit 78 skin color / circle shape extraction unit 80 face contour / circle shape extraction unit 2 synthesis and result determining section 86 fuselage and eye portion extracting section 88 the main part determination unit 90 main subject extracting section 91 start portion 92,92 1, 92 1, ... 92 N extraction unit 93 ends portions 94,94 1, ... 94 k Extraction subunit 96 Condition judgment unit

フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 1/40 G06F 15/70 310 H04N 1/40 F Continued on the front page (51) Int.Cl. 6 Identification symbol FI H04N 1/40 G06F 15/70 310 H04N 1/40 F

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】特性の異なる複数の被写体抽出を行い、各
被写体抽出で抽出された被写体を合成して、合成結果が
所定の判定基準を満たした場合には、前記合成結果から
主要被写体を抽出し、 前記合成結果が判定基準を満たさない場合には、さら
に、特性の異なる補助被写体抽出を行い、前記合成結果
と、この補助被写体抽出による抽出結果とを用いて、主
要被写体を抽出することを特徴とする主要被写体抽出方
法。
1. A method for extracting a plurality of subjects having different characteristics, combining the subjects extracted in each subject extraction, and extracting a main subject from the combined result when the combined result satisfies a predetermined criterion. If the synthesis result does not satisfy the determination criterion, an auxiliary subject having a different characteristic is further extracted, and a main subject is extracted using the synthesis result and the extraction result obtained by the auxiliary subject extraction. Characteristic main subject extraction method.
【請求項2】前記判定基準が、各被写体抽出による抽出
画像を合成した際の領域重複度、各被写体抽出による抽
出画像を合成した際の重み付け点数の少なくとも一方で
ある請求項1に記載の主要被写体抽出方法。
2. The method according to claim 1, wherein the determination criterion is at least one of a region overlapping degree when combining the extracted images obtained by extracting the respective subjects and a weighting score when combining the extracted images obtained by extracting the respective subjects. Subject extraction method.
【請求項3】前記合成結果から主要被写体を抽出した際
に、抽出した主要被写体の画像特徴量が予め定められた
規定値を超えた場合には、前記補助被写体抽出を行い、
前記合成結果と、補助被写体抽出による抽出結果とを用
いて、主要被写体を抽出する請求項1または2に記載の
主要被写体抽出方法。
3. When a main subject is extracted from the synthesis result, if the image feature amount of the extracted main subject exceeds a predetermined value, the auxiliary subject is extracted.
The main subject extraction method according to claim 1, wherein a main subject is extracted using the synthesis result and an extraction result obtained by extracting an auxiliary subject.
【請求項4】前記合成結果から主要被写体を抽出した際
に、抽出された主要被写体が複数で、この複数の主要被
写体間の画像特徴量に所定値を超える違いがある場合に
は、前記補助被写体抽出を行い、補助被写体抽出による
抽出結果とを用いて、主要被写体を抽出する請求項1〜
3のいずれかに記載の主要被写体抽出方法。
4. When the main subject is extracted from the synthesis result and there are a plurality of extracted main subjects and there is a difference in image feature amount between the plurality of main subjects exceeding a predetermined value, the auxiliary A subject is extracted, and a main subject is extracted using an extraction result obtained by extracting an auxiliary subject.
3. The method for extracting a main subject according to any one of 3.
【請求項5】前記被写体抽出が、肌色抽出、顔輪郭抽出
および円形状抽出から選択される2以上であり、前記補
助被写体抽出が、頭髪部抽出、顔内部構造抽出、胴体抽
出、非背景部抽出および円形状抽出から選択される1以
上である請求項1〜4のいずれかに記載の主要被写体抽
出方法。
5. The subject extraction is at least two selected from skin color extraction, face outline extraction, and circular shape extraction, and the auxiliary subject extraction is hair extraction, face internal structure extraction, torso extraction, non-background part. 5. The main subject extraction method according to claim 1, wherein the method is one or more selected from extraction and circular shape extraction.
【請求項6】並列処理される、特性の異なる被写体抽出
を行う複数の抽出サブユニットおよび各抽出サブユニッ
トの結果により前記被写体抽出の条件判定を行う条件判
定部を有する被写体抽出ユニットを少なくとも1つ含む
抽出ユニットが複数個カスケード接続されてなり、 前記条件判定部は、前記抽出サブユニットによって抽出
された各被写体の抽出領域への重み付けあるいは判定を
行い、かつその結果に基づいて抽出処理を適用する後段
の少なくとも1つの前記抽出ユニットを選択することを
特徴とする主要被写体抽出装置。
6. At least one subject extraction unit having a plurality of extraction subunits for performing subject extraction with different characteristics and a condition determination unit for performing a condition determination for the subject extraction based on the result of each extraction subunit, which is performed in parallel. A plurality of extraction units including a plurality of extraction units are cascade-connected. The condition determination unit weights or determines the extraction region of each subject extracted by the extraction subunit, and applies an extraction process based on the result. A main subject extraction device, wherein at least one extraction unit at a subsequent stage is selected.
【請求項7】前記抽出ユニットは、被写体抽出を行う1
個の抽出サブユニットおよびこの抽出サブユニットの結
果により前記被写体抽出の条件判定を行う条件判定部を
有するユニット、または前記抽出サブユニットを有さ
ず、カスケード接続された前段の抽出ユニットの結果に
より、抽出された被写体の条件判定を行う条件判定部の
みを持つユニットを少なくとも1つ含む請求項6に記載
の主要被写体抽出装置。
7. An extraction unit for extracting a subject.
The number of extraction subunits and a unit having a condition determination unit for performing the condition determination of the subject extraction based on the results of the extraction subunits, or the result of the cascade-connected previous extraction unit without the extraction subunits, 7. The main subject extraction device according to claim 6, wherein the main subject extraction device includes at least one unit having only a condition determination unit for performing a condition determination on the extracted subject.
【請求項8】前記抽出サブユニットは、肌色抽出部、顔
輪郭抽出部、円形状抽出部、胴体抽出部、眼部抽出部、
頭髪部抽出部、顔内部構造抽出部、非背景部抽出部、な
らびに肌色抽出、顔輪郭抽出、円形状抽出、胴体抽出、
眼部抽出、頭髪部抽出、顔内部構造抽出および非背景部
抽出の少なくとも2種の抽出を行う抽出部から選択され
る2つ以上である請求項6または7に記載の主要被写体
抽出装置。
8. The extraction subunit includes a skin color extraction unit, a face outline extraction unit, a circular shape extraction unit, a body extraction unit, an eye extraction unit,
Hair part extraction part, face internal structure extraction part, non-background part extraction part, skin color extraction, face outline extraction, circular shape extraction, body extraction,
The main subject extraction device according to claim 6 or 7, wherein at least two types are selected from an extraction unit that performs at least two types of extraction including eye extraction, hair extraction, face internal structure extraction, and non-background extraction.
【請求項9】前記条件判定部は、並列処理される複数の
抽出サブユニットで抽出された特性の異なる被写体の候
補を合成し、合成された複数の候補の前記被写体の抽出
領域から前記被写体抽出の結果が適正か否かを判定する
合成・結果判定部を含む請求項6〜8のいずれかに記載
の主要被写体抽出装置。
9. The condition judging section synthesizes candidates of subjects having different characteristics extracted by a plurality of extraction sub-units to be processed in parallel, and extracts the subject from an extracted region of the synthesized plurality of candidates. 9. The main subject extracting device according to claim 6, further comprising a combining / result determining unit that determines whether the result of the above is appropriate.
【請求項10】カスケード接続された前記抽出ユニット
の最後段の前記抽出ユニットの条件判定部は、主要被写
体を抽出する主要被写体判定部である請求項6〜9のい
ずれかに記載の主要被写体抽出装置。
10. The main subject extraction according to claim 6, wherein the condition determination unit of the last extraction unit of the cascade-connected extraction units is a main subject determination unit for extracting a main subject. apparatus.
【請求項11】並列処理される、特性の異なる被写体抽
出を行う複数種の抽出サブ工程および各抽出サブ工程の
結果により前記被写体抽出の条件判定を行う条件判定サ
ブ工程を有する被写体抽出工程を少なくとも1つ含む抽
出工程が、複数段カスケード接続されてなり、 前記条件判定サブ工程では、前記抽出サブ工程によって
抽出された各被写体の抽出領域への重み付けあるいは判
定を行い、かつその結果に基づいて抽出処理を適用する
後段の少なくとも1つの前記抽出工程を選択することを
特徴とする主要被写体抽出方法。
11. An object extracting step which includes a plurality of types of extracting sub-steps for extracting subjects having different characteristics and a condition judging sub-step for judging the subject extracting condition based on a result of each of the extracting sub-steps. The extraction step including one is cascade-connected in a plurality of stages. In the condition determination sub-step, weighting or determination is performed on the extraction area of each subject extracted in the extraction sub-step, and extraction is performed based on the result. A method for extracting a main subject, wherein at least one extraction step at a later stage to which the processing is applied is selected.
【請求項12】前記抽出工程は、被写体抽出を行う1種
の抽出サブ工程およびこの抽出サブ工程の結果により前
記被写体抽出の条件判定を行う条件判定サブ工程を有す
る工程、および前記抽出サブ工程を有さず、カスケード
接続された前段の抽出工程の結果により、抽出された被
写体の候補の条件判定を行う条件判定サブ工程のみを有
する工程の少なくとも1つを含む請求項11に記載の主
要被写体抽出方法。
12. The extracting step includes a kind of extracting sub-step of extracting a subject, a step of determining a condition of extracting the subject based on a result of the extracting sub-step, and a step of determining a condition of extracting the subject. 12. The main subject extraction according to claim 11, wherein the main subject extraction includes at least one step having only a condition determination sub-step of performing a condition determination of an extracted subject candidate based on a result of the preceding extraction step connected in cascade. Method.
【請求項13】前記抽出サブ工程は、肌色抽出、顔輪郭
抽出、円形状抽出、胴体抽出、眼部抽出または顔内部構
造抽出、頭髪部抽出、非背景部抽出、およびこれらの少
なくとも2種の抽出の組み合わせから選択される2種以
上を含む請求項11または12に記載の主要被写体抽出
方法。
13. The extraction sub-step includes: skin color extraction, face contour extraction, circular shape extraction, body extraction, eye extraction or face internal structure extraction, hair extraction, non-background extraction, and at least two of these. 13. The main subject extraction method according to claim 11, wherein the main subject extraction method includes two or more types selected from a combination of extraction.
【請求項14】前記条件判定サブ工程は、並列処理され
る複数の抽出サブ工程で抽出された特性の異なる被写体
の候補を合成し、合成された複数の候補の前記被写体の
抽出領域から前記被写体抽出の結果が適正か否かを判定
する合成・結果判定工程を含む請求項11〜13のいず
れかに記載の主要被写体抽出方法。
14. The condition judging sub-step combines candidate subjects of different characteristics extracted in a plurality of extracting sub-steps which are processed in parallel, and extracts the subject from an extracted region of the synthesized plural candidates. 14. The main subject extracting method according to claim 11, further comprising a combining / result determining step of determining whether an extraction result is appropriate.
【請求項15】カスケード接続された前記抽出工程の内
の最後段の前記抽出工程の条件判定サブ工程は、主要被
写体を抽出する主要被写体判定工程である請求項11〜
14のいずれかに記載の主要被写体抽出方法。
15. The condition determination sub-step of the last extraction step of the cascade-connected extraction steps is a main subject determination step of extracting a main subject.
15. The method for extracting a main subject according to any one of 14.
JP05232199A 1998-03-02 1999-03-01 Main subject extraction method and apparatus Expired - Lifetime JP3576025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05232199A JP3576025B2 (en) 1998-03-02 1999-03-01 Main subject extraction method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4937998 1998-03-02
JP10-49379 1998-03-02
JP05232199A JP3576025B2 (en) 1998-03-02 1999-03-01 Main subject extraction method and apparatus

Publications (2)

Publication Number Publication Date
JPH11316845A true JPH11316845A (en) 1999-11-16
JP3576025B2 JP3576025B2 (en) 2004-10-13

Family

ID=26389768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05232199A Expired - Lifetime JP3576025B2 (en) 1998-03-02 1999-03-01 Main subject extraction method and apparatus

Country Status (1)

Country Link
JP (1) JP3576025B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186323A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Identification photograph system and picture on processing method
KR100439377B1 (en) * 2002-01-17 2004-07-09 엘지전자 주식회사 Human area detection for mobile video telecommunication system
WO2005086092A1 (en) * 2004-03-03 2005-09-15 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
JP2007129310A (en) * 2005-11-01 2007-05-24 Nikon Corp Imaging apparatus
US7321668B2 (en) 2003-11-27 2008-01-22 Konica Minolta Holdings, Inc. Object detection apparatus, object detection method and computer program product
JP2008015641A (en) * 2006-07-04 2008-01-24 Fujifilm Corp Method, apparatus and program for extracting human body area
KR100839536B1 (en) 2006-12-15 2008-06-19 주식회사 케이티 System and method for facial region/hair information extraction, character generation
US7627148B2 (en) 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
JP2010086546A (en) * 2000-03-31 2010-04-15 Fujitsu Ltd Fingerprint data synthesis apparatus
JP2010102725A (en) * 2002-08-22 2010-05-06 Eastman Kodak Co Method for detecting object in digital image
KR20160147512A (en) * 2015-06-15 2016-12-23 한화테크윈 주식회사 Foreground area extracting method and apparatus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186323A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Identification photograph system and picture on processing method
JP2010086546A (en) * 2000-03-31 2010-04-15 Fujitsu Ltd Fingerprint data synthesis apparatus
KR100439377B1 (en) * 2002-01-17 2004-07-09 엘지전자 주식회사 Human area detection for mobile video telecommunication system
JP2010102725A (en) * 2002-08-22 2010-05-06 Eastman Kodak Co Method for detecting object in digital image
US7321668B2 (en) 2003-11-27 2008-01-22 Konica Minolta Holdings, Inc. Object detection apparatus, object detection method and computer program product
WO2005086092A1 (en) * 2004-03-03 2005-09-15 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
US7991232B2 (en) 2004-03-03 2011-08-02 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
US7627148B2 (en) 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
JP2007129310A (en) * 2005-11-01 2007-05-24 Nikon Corp Imaging apparatus
JP4645413B2 (en) * 2005-11-01 2011-03-09 株式会社ニコン Imaging device
JP2008015641A (en) * 2006-07-04 2008-01-24 Fujifilm Corp Method, apparatus and program for extracting human body area
US8023701B2 (en) 2006-07-04 2011-09-20 Fujifilm Corporation Method, apparatus, and program for human figure region extraction
KR100839536B1 (en) 2006-12-15 2008-06-19 주식회사 케이티 System and method for facial region/hair information extraction, character generation
KR20160147512A (en) * 2015-06-15 2016-12-23 한화테크윈 주식회사 Foreground area extracting method and apparatus

Also Published As

Publication number Publication date
JP3576025B2 (en) 2004-10-13

Similar Documents

Publication Publication Date Title
US6529630B1 (en) Method and device for extracting principal image subjects
US7379591B2 (en) Method and device for extracting specified image subject
US7289664B2 (en) Method of detecting and correcting the red eye
JP3557659B2 (en) Face extraction method
US6798921B2 (en) Method for image designating and modifying process
US6697537B2 (en) Image processing method and apparatus
JP4050842B2 (en) Image processing method
JP3961734B2 (en) Image processing method, apparatus, and recording medium
US20050276481A1 (en) Particular-region detection method and apparatus, and program therefor
JP3733165B2 (en) Image data conversion method for digital printer
JP3907816B2 (en) Image processing method
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
JP3576025B2 (en) Main subject extraction method and apparatus
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
JP3408770B2 (en) Image processing device
JP3964796B2 (en) Red-eye detection and correction method
JP3575976B2 (en) Main subject extraction method
JP3576809B2 (en) Image processing device
JP2001103304A (en) Method and system for extracting specific object
JPH08110603A (en) Color adjusting method and device
JP2001076149A (en) Method and device for extracting main object
JP2001155174A (en) Method and device for image processing
JP3836237B2 (en) Image correction method and apparatus
JP4285868B2 (en) Main subject extraction method, image processing apparatus, and imaging apparatus
JP2006018805A (en) Particular region detection method, particular region detection apparatus and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040706

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100716

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term