JP3516786B2 - Face area extraction method and copy condition determination method - Google Patents

Face area extraction method and copy condition determination method

Info

Publication number
JP3516786B2
JP3516786B2 JP25897695A JP25897695A JP3516786B2 JP 3516786 B2 JP3516786 B2 JP 3516786B2 JP 25897695 A JP25897695 A JP 25897695A JP 25897695 A JP25897695 A JP 25897695A JP 3516786 B2 JP3516786 B2 JP 3516786B2
Authority
JP
Japan
Prior art keywords
area
face
original image
extracted
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP25897695A
Other languages
Japanese (ja)
Other versions
JPH09101579A (en
Inventor
博明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP25897695A priority Critical patent/JP3516786B2/en
Publication of JPH09101579A publication Critical patent/JPH09101579A/en
Application granted granted Critical
Publication of JP3516786B2 publication Critical patent/JP3516786B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は顔領域抽出方法及び
複写条件決定方法に係り、特に、カラー原画像中の人物
の顔に相当すると推定される領域を抽出する顔領域抽出
方法、及び該抽出方法によって抽出された顔領域内の画
像特徴量に基づいて露光量を決定する複写条件決定方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face area extracting method and a copy condition determining method, and more particularly to a face area extracting method for extracting an area estimated to correspond to a human face in a color original image, and the extracting method. The present invention relates to a copying condition determining method for determining an exposure amount based on an image feature amount in a face area extracted by the method.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】人物写
真を観賞するときに最も注目される部位は人物の顔であ
るので、例えばネガフィルム等に記録された原画像を印
画紙等の複写材料に焼付ける場合には、人物の顔の色が
適正な色に焼付けされるように、原画像中の人物の顔に
相当する領域を抽出し、抽出した領域の色や濃度に基づ
いて露光量を決定することが好ましい。
2. Description of the Related Art Since the face of a person is the most noticeable part when viewing a photograph of a person, for example, an original image recorded on a negative film or the like is used as a copying material such as photographic paper. When printing on, the area corresponding to the person's face in the original image is extracted so that the color of the person's face is printed in an appropriate color, and the exposure amount is based on the color and density of the extracted area. Is preferably determined.

【0003】このため、特開昭 52-156624号公報、特開
昭 52-156625号公報、特開昭53-12330号公報、特開昭 5
3-145620号公報、特開昭 53-145621号公報、特開昭 53-
145622号公報等には、肌色データを抽出することによっ
て人物の顔のデータを抽出する方法として、カラー原画
像を多数の測定点に分割すると共に各測定点をR、G、
Bの3色に分解して測光し、測光データに基づいて各測
定点の色が色座標上で肌色の範囲内か否か判断し、肌色
の範囲内と判断した測定点のクラスタ(群)を顔の濃度
とすることが記載されている。しかしながら、上記で
は、原画像に例えば地面や木の幹等の肌色領域が存在し
ていた場合、この領域内の測定点のデータを顔の濃度デ
ータとして誤抽出することがあり、適正な露光量を得る
ことができないという問題があった。
Therefore, JP-A-52-156624, JP-A-52-156625, JP-A-53-12330, and JP-A-5-156624
3-145620, JP-A-53-145621, JP-A-53-
No. 145622 discloses a method of extracting data of a person's face by extracting skin color data by dividing a color original image into a large number of measurement points, and measuring each measurement point with R, G,
A cluster (group) of measurement points determined to be within the skin color range by determining whether the color of each measurement point is within the skin color range on the color coordinates based on the photometric data Is described as the face density. However, in the above, when the original image has a skin color area such as the ground or a tree trunk, the data of the measurement points in this area may be erroneously extracted as the density data of the face, and the appropriate exposure amount There was a problem that I could not get.

【0004】また本出願人は、カラー原画像を多数画素
に分割し各画素毎にR、G、Bの3色に分解して測光
し、測光データに基づいて色相値(及び彩度値)につい
てのヒストグラムを求め、求めたヒストグラムを山毎に
分割し、各画素が分割した山の何れに属するかを判断し
て各画素を分割した山に対応する群に分け、各群毎にカ
ラー原画像を複数の領域に分割し(所謂クラスタリン
グ)、該複数の領域のうち人物の顔に相当する領域を推
定し、推定した領域の測光データに基づいて露光量を決
定することを提案している(特開平4-346333号公報参
照)。
Further, the applicant of the present invention divides a color original image into a large number of pixels, decomposes each pixel into three colors of R, G, and B to perform photometry, and based on the photometric data, hue value (and saturation value). For each mountain, determine which pixel the divided mountain belongs to, and divide each pixel into groups corresponding to the divided mountains. It is proposed to divide an image into a plurality of areas (so-called clustering), estimate an area corresponding to a person's face in the plurality of areas, and determine the exposure amount based on the photometric data of the estimated area. (See JP-A-4-346333).

【0005】しかし、原画像に存在している地面や木の
幹等の肌色の非人物領域が人物の顔に相当する領域と隣
接していた場合、理想的には例として図9(A)に異な
るハッチングで示すように、人物の顔に相当する領域と
非人物領域(図では背景に相当する領域)と異なる領域
として抽出することが好ましいが、上記技術では、図9
(B)に示すように人物の顔に相当する領域と非人物領
域とを分離することができない。また、人物の顔に相当
する領域内の色相や彩度が部分的に若干異なっていた場
合には、人物の顔に相当する領域内のデータによってヒ
ストグラム上で複数のクラスタが形成され、図9(C)
に示すように、人物の顔に相当する領域を過剰に分割し
てしまうこともあった。
However, when the skin-colored non-human region such as the ground or the trunk of a tree existing in the original image is adjacent to the region corresponding to the human face, ideally, as an example, FIG. As indicated by different hatching in FIG. 9, it is preferable to extract as a region different from a region corresponding to a person's face and a non-human region (a region corresponding to the background in the figure).
As shown in (B), the area corresponding to the human face and the non-person area cannot be separated. If the hue and saturation in the area corresponding to the person's face are slightly different, a plurality of clusters are formed on the histogram by the data in the area corresponding to the person's face. (C)
As shown in, the area corresponding to a person's face may be excessively divided.

【0006】上記技術では、分割した領域の何れかが人
物の顔に相当する領域であることを前提として処理を行
っているため、原画像を適正な範囲の領域に分割できな
かった場合には、人物の顔に相当する領域を誤判定し、
人物の顔を適正に焼付けできる露光量を得ることができ
ないという問題があった。
In the above technique, the processing is performed on the assumption that one of the divided areas is an area corresponding to the face of a person. Therefore, when the original image cannot be divided into areas within an appropriate range, , The area corresponding to the person's face is misjudged,
There is a problem that it is not possible to obtain an exposure amount that can properly print a person's face.

【0007】本発明は上記事実を考慮して成されたもの
で、カラー原画像中に存在する人物の顔に相当する領域
を高い確度で適正に抽出することができる顔領域抽出方
法を得ることが目的である。
The present invention has been made in consideration of the above facts, and provides a face area extraction method capable of appropriately and accurately extracting an area corresponding to a human face existing in a color original image. Is the purpose.

【0008】また本発明は、カラー原画像中に存在する
人物の顔に相当する領域を適正に焼付けできる複写条件
を高い確度で得ることができる複写条件決定方法を得る
ことが目的である。
It is another object of the present invention to obtain a copying condition determining method which can obtain with high accuracy a copying condition capable of properly printing an area corresponding to the face of a person existing in a color original image.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る顔領域抽出方法は、カラー
原画像上の多数箇所を複数の成分色に分解して測光し、
前記測光によって得られたデータが表す原画像上の各箇
所における色相が肌色の範囲に含まれるか否かを判断
し、原画像を肌色領域と非肌色領域とに分割すると共
に、前記測光によって得られたデータに基づいて原画像
中のエッジを検出し、原画像中の各箇所をエッジ部分又
は非エッジ部分に分類し、前記肌色領域内に位置してお
り、かつ非エッジ部分と分類した箇所の集まりで構成さ
れる原画像中の領域を顔候補領域として抽出し、抽出し
た顔候補領域が人物の顔に相当する領域か否か判定し、
人物の顔に相当する領域であると判定した顔候補領域を
抽出する。
In order to achieve the above object, a face area extracting method according to the invention of claim 1 separates a large number of points on a color original image into a plurality of component colors and performs photometry,
It is determined whether the hue at each position on the original image represented by the data obtained by the photometry is included in the skin color range, the original image is divided into a skin color region and a non-skin color region, and the light is obtained by the photometry. Detecting edges in the original image based on the data obtained, classifying each part in the original image into an edge part or a non-edge part, located in the skin color area, and classified as a non-edge part A region in the original image composed of a set of is extracted as a face candidate region, and it is determined whether the extracted face candidate region is a region corresponding to a human face,
A face candidate area determined to be an area corresponding to a person's face is extracted.

【0010】上記では、原画像上の各箇所における色相
が肌色の範囲に含まれるか否かを判断して原画像を肌色
領域と非肌色領域とに分割しているので、人物の顔に相
当する領域の色相及び彩度が部分的に若干異なっていた
としても、前記領域内の各箇所の色相が全て肌色の範囲
に含まれると判断される可能性は非常に高く、前記領域
が単一の肌色領域となるように原画像が分割されること
になる。従って、人物の顔に相当する領域内の色相や彩
度が部分的に異なっている場合にも、この部分を過剰に
分割してしまうことはない。
In the above, the original image is divided into the flesh color region and the non-flesh color region by judging whether the hue at each location on the original image is included in the flesh color range or not, so that it corresponds to a human face. Even if the hue and saturation of the region to be partially shaded are slightly different, it is very likely that the hues at each point in the region are all included in the skin color range. The original image is divided into the flesh-colored area. Therefore, even if the hue or saturation in the area corresponding to the face of the person is partially different, this portion will not be excessively divided.

【0011】また、原画像中のエッジを検出して原画像
中の各箇所をエッジ部分又は非エッジ部分に分類し、肌
色領域内に位置しており、かつ非エッジ部分と分類した
箇所の集まりで構成される原画像中の領域を顔候補領域
として抽出するので、例えば原画像中に、人物の顔と色
相が同一又は近似した背景領域が人物の顔に相当する領
域に隣接していたとしても、該背景領域と人物の顔に相
当する領域との境界部分がエッジ部分と分類されること
により、背景領域と人物の顔に相当する領域との間がエ
ッジ部分により区画され、両者は異なる顔候補領域とし
て抽出されることになる。
Further, a group of places which are located in the skin color area and are classified as non-edge parts by detecting edges in the original image and classifying each part in the original image into edge parts or non-edge parts Since a region in the original image composed of is extracted as a face candidate region, for example, in the original image, if a background region having the same hue or a similar hue as the human face is adjacent to the region corresponding to the human face. Also, since the boundary portion between the background area and the area corresponding to the person's face is classified as the edge portion, the background area and the area corresponding to the person's face are divided by the edge portion, and both are different. It will be extracted as a face candidate area.

【0012】そして、上記のようにして抽出された顔候
補領域のうち人物の顔に相当する領域であるか否か判定
し、人物の顔に相当する領域であると判定した顔候補領
域を抽出するので、カラー原画像中に存在する人物の顔
に相当する領域を、過剰に分割したり、背景領域が混在
したりすることなく、高い確度で適正に抽出することが
できる。
Then, it is determined whether or not the face candidate region extracted as described above is a region corresponding to a human face, and a face candidate region determined to be a region corresponding to a human face is extracted. Therefore, the area corresponding to the face of the person existing in the color original image can be appropriately extracted with high accuracy without excessive division or mixture of background areas.

【0013】請求項2記載の発明に係る複写条件決定方
法は、請求項1記載の顔領域抽出方法により、記録媒体
に記録された原画像から人物の顔に相当する領域を抽出
し、抽出した領域内における画像特徴量に基づいて、複
写材料への前記原画像の複写条件を決定することを特徴
としている。
In the copy condition determining method according to the invention of claim 2, the face area extracting method according to claim 1 extracts and extracts an area corresponding to a human face from the original image recorded on the recording medium. It is characterized in that the copy condition of the original image on the copy material is determined based on the image feature amount in the area.

【0014】上記では、請求項1の顔領域抽出方法を適
用して、記録媒体に記録された原画像から人物の顔に相
当する領域を抽出するので、前記と同様に、人物の顔に
相当する領域を高い確度で適正に抽出することができ、
更に抽出した領域内における画像特徴量に基づいて複写
材料への複写条件を決定するので、カラー原画像中に存
在する人物の顔に相当する領域を適正に焼付けできる複
写条件を高い確度で得ることができる。
In the above, since the face area extracting method according to claim 1 is applied to extract the area corresponding to the human face from the original image recorded on the recording medium, like the above, the area corresponding to the human face is extracted. Area can be extracted accurately with high accuracy,
Further, since the copy condition for the copy material is determined based on the image feature amount in the extracted region, it is possible to obtain with high accuracy the copy condition capable of properly printing the region corresponding to the face of the person existing in the color original image. You can

【0015】[0015]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。図1には本発明を適用
可能な写真焼付装置10が示されている。写真焼付装置
10は、ネガフィルム12に記録された画像を焼付ける
ための露光光を射出する光源16を備えている。光源1
6の光射出側には、調光フィルタ等の色補正フィルタ1
8、拡散ボックス20、分配用プリズム22が順に配列
されている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a photographic printing apparatus 10 to which the present invention can be applied. The photo printing apparatus 10 includes a light source 16 that emits exposure light for printing an image recorded on the negative film 12. Light source 1
The color correction filter 1 such as a dimming filter is provided on the light emission side of 6.
8, the diffusion box 20, and the distribution prism 22 are arranged in order.

【0016】写真フィルムとしてのネガフィルム12の
搬送路は拡散ボックス20と分配用プリズム22との間
に形成されており、分配用プリズム22はネガフィルム
12を透過した光を2方向に分配する。光源16の光軸
を挟んで両側には、ネガフィルム12の搬送路に沿って
搬送ローラ対14A、14Bが設けられている。搬送ロ
ーラ対14A、14Bは各々モータ52A、52Bの駆
動軸に連結されており、モータ52A、52Bの駆動力
が伝達されることにより回転し、ネガフィルム12を搬
送する。
The conveying path of the negative film 12 as a photographic film is formed between the diffusion box 20 and the distribution prism 22, and the distribution prism 22 distributes the light transmitted through the negative film 12 in two directions. Conveying roller pairs 14A and 14B are provided on both sides of the optical axis of the light source 16 along the conveying path of the negative film 12. The conveying roller pairs 14A and 14B are connected to the drive shafts of the motors 52A and 52B, respectively, and are rotated by the driving force of the motors 52A and 52B being transmitted to convey the negative film 12.

【0017】分配用プリズム22によって2方向に分配
された光の一方の光路上には、投影光学系24、ブラッ
クシャッタ26、及び複写材料としてのカラーペーパ
(印画紙)28が順に配置されており、他方の光路上に
は投影光学系30、CCDイメージセンサ32が順に配
置されている。CCDイメージセンサ32はネガフィル
ム12に記録された画像(1コマ)全体を多数の画素
(例えば256×256画素)に分割し、各画素をR
(赤)、G(緑)、B(青)の3色に分解して測光す
る。
A projection optical system 24, a black shutter 26, and a color paper (printing paper) 28 as a copying material are sequentially arranged on one optical path of the light distributed in two directions by the distribution prism 22. The projection optical system 30 and the CCD image sensor 32 are sequentially arranged on the other optical path. The CCD image sensor 32 divides the entire image (one frame) recorded on the negative film 12 into a large number of pixels (for example, 256 × 256 pixels), and each pixel is red.
(Red), G (green), and B (blue) are separated into three colors for photometry.

【0018】CCDイメージセンサ32の信号出力端に
は、CCDイメージセンサ32から出力された信号を増
幅する増幅器34、アナログ−デジタル(A/D)変換
器36、CCDイメージセンサ32の感度補正用の3×
3マトリクス回路38が順に接続されている。3×3マ
トリクス回路38は、マイクロコンピュータ及びその周
辺機器で構成された制御部40の入出力ポート40Dに
接続されている。制御部40は、CPU40A、ROM
40B、RAM40C及び入出力ポート40Dを備えて
おり、これらはバスを介して互いに接続されている。
An amplifier 34 for amplifying the signal output from the CCD image sensor 32, an analog-digital (A / D) converter 36, and a sensitivity correction of the CCD image sensor 32 are provided at the signal output end of the CCD image sensor 32. 3x
Three matrix circuits 38 are connected in order. The 3 × 3 matrix circuit 38 is connected to the input / output port 40D of the control unit 40 including a microcomputer and its peripheral devices. The control unit 40 includes a CPU 40A and a ROM
40B, RAM 40C and input / output port 40D are provided, and these are connected to each other via a bus.

【0019】制御部40の入出力ポート40Dには、色
補正フィルタ18を駆動するドライバ46を介して色補
正フィルタ18が接続されており、ドライバ50A、5
0Bを介してモータ52A、52Bが各々接続されてい
る。また入出力ポート40Dには、LCD又はCRTか
ら成る表示手段としてのディスプレイ42と、オペレー
タが各種情報を入力するためのテンキー等のキーボード
44と、光源16の光軸を挟んで両側に配置されネガフ
ィルム12の透過光量を検出する画面検出センサ48が
接続されている。
The color correction filter 18 is connected to the input / output port 40D of the control section 40 via a driver 46 for driving the color correction filter 18, and the drivers 50A,
Motors 52A and 52B are connected to each other via 0B. Further, the input / output port 40D is provided with a display 42 as a display means composed of an LCD or a CRT, a keyboard 44 such as a numeric keypad for an operator to input various information, and negatives arranged on both sides of the optical axis of the light source 16 therebetween. A screen detection sensor 48 that detects the amount of transmitted light of the film 12 is connected.

【0020】次に図2のフローチャートを参照し、本実
施形態の作用を説明する。なお図2のフローチャート
は、写真焼付装置10にセットされたネガフィルム12
を所定方向に搬送すると共に画面検出センサ48からの
出力信号を監視して、ネガフィルム12に記録された画
像を露光位置に位置決めする毎に実行される。
Next, the operation of this embodiment will be described with reference to the flowchart of FIG. The flow chart of FIG. 2 shows the negative film 12 set in the photo printing apparatus 10.
Is carried out in a predetermined direction, the output signal from the screen detection sensor 48 is monitored, and this is executed every time the image recorded on the negative film 12 is positioned at the exposure position.

【0021】ステップ100では露光位置に位置決めし
た画像をCCDイメージセンサ32によって測光し、C
CDイメージセンサ32から増幅器34、A/D変換器
36、3×3マトリクス回路38を介して出力される
R、G、B毎の測光データを取込み、更に取込んだ測光
データをRAM40C等のメモリに一旦記憶する。ステ
ップ102では、メモリに格納された測光データのノイ
ズ除去、すなわちスムージングを行なう。次のステップ
104では肌色領域抽出処理を行う。この肌色領域抽出
処理について、図3のフローチャートを参照して説明す
る。
In step 100, the image positioned at the exposure position is measured by the CCD image sensor 32, and C
The R, G, and B photometric data output from the CD image sensor 32 via the amplifier 34, the A / D converter 36, and the 3 × 3 matrix circuit 38 is captured, and the captured photometric data is stored in a memory such as a RAM 40C. Remember once. In step 102, noise removal, that is, smoothing, of the photometric data stored in the memory is performed. In the next step 104, skin color area extraction processing is performed. This skin color area extraction processing will be described with reference to the flowchart in FIG.

【0022】ステップ130では、上記でスムージング
を行った各画素毎の測光データに基づいて、各画素の色
相が肌色の範囲に含まれるか否か判定する。なお、この
判定には、例えば特開昭 52-156624号等に記載されてい
る楕円体状の立体を用いることができる。
In step 130, it is determined whether or not the hue of each pixel is included in the skin color range based on the photometric data for each pixel that has been smoothed as described above. For this determination, for example, an ellipsoidal solid described in JP-A-52-156624 can be used.

【0023】すなわち、ネガフィルムに記録された多数
の画像から抽出した多数の肌色点における緑色濃度G、
青色濃度B、赤色濃度Rは、各色濃度の平均値BAVE,
AVE,AVE を中心とする3次元ガウス分布となるので、
肌色点の各色濃度B、G、Rは、各色濃度B、G、Rを
各々座標軸とする3次元色座標上で定義される各色濃度
の平均値BAVE,AVE,AVE を中心とする楕円体(各色
の分布が等しくないために楕円となる、図5の楕円体6
0参照)の内側に存在すると考えられる。楕円体又は楕
円は次の一般式で表される。
That is, the green density G at a large number of skin color points extracted from a large number of images recorded on a negative film,
The blue density B and red density R are the average values B AVE, G of each color density.
Since it has a three-dimensional Gaussian distribution centered on AVE and R AVE ,
The color densities B, G, R of the skin color point are centered on the average values B AVE, G AVE, R AVE of the color densities defined on the three-dimensional color coordinates with the color densities B, G, R as coordinate axes. Ellipsoid (Ellipsoid 6 in FIG. 5, which is an ellipse because the distribution of each color is not equal)
(See 0)). The ellipsoid or ellipse is represented by the following general formula.

【0024】[0024]

【数1】 [Equation 1]

【0025】但し、αijは定数、x1 =B−BAVE 、x
2 =G−GAVE 、x3 =R−RAVE であり、nが3なら
ば楕円体である。従って、楕円体の場合には、 dS2 =C11dB2 +2C12dB・dG+C22dG2 + 2C23dG・dR+C33dR2 +2C31dR・dB …(2) とすることができる。dB=x1 、dG=x2 、dR=
3 であるので、dB=B−BAVE 、dG=G−
AVE 、dR=R−RAVE となる。また、Cijは次の分
散・共分散行列Aの逆行列の要素である。
However, α ij is a constant, x 1 = B−B AVE , x
2 = G-G AVE, a x 3 = R-R AVE, n is 3 if ellipsoid. Therefore, in the case of an ellipsoid, it can be set as dS 2 = C 11 dB 2 + 2C 12 dB · dG + C 22 dG 2 + 2C 23 dG · dR + C 33 dR 2 + 2C 31 dR · dB (2). dB = x 1 , dG = x 2 , dR =
because it is x 3, dB = B-B AVE, dG = G-
G AVE and dR = R−R AVE . C ij is an element of the inverse matrix of the following covariance / covariance matrix A.

【0026】[0026]

【数2】 [Equation 2]

【0027】但し、Nはデータの数、Bi,i,i は各
測定点における濃度を表す。ところで(2)式によって
定義される楕円体の大きさは、(2)式のdS2 の値に
よって変化する。色相が肌色ではない測定点のデータが
楕円体に含まれることのないようにするには、ネガフィ
ルムに記録された多数の画像から抽出した多数の肌色点
のデータの大多数(例えば95%)が楕円体に含まれるよ
うにdS2 のしきい値を設定し、上記の各パラメータを
求めておけばよい。
However, N represents the number of data, and B i, G i, and R i represent the density at each measurement point. By the way, the size of the ellipsoid defined by the equation (2) changes depending on the value of dS 2 in the equation (2). In order to prevent the data of measurement points whose hue is not skin color from being included in the ellipsoid, the majority of the data of many skin color points extracted from many images recorded on negative film (eg 95%) It is sufficient to set the threshold value of dS 2 so that is included in the ellipsoid and obtain the above parameters.

【0028】そしてステップ130では、各画素のデー
タを(2)式に代入してdS2 を演算し、得られたdS
2 の値が先に設定したしきい値以下の場合には、該画素
のデータが楕円体内に位置しているので該画素の色相は
肌色の範囲に含まれていると判断し、得られたdS2
値がしきい値よりも大きい場合には、該画素のデータが
楕円体の外に位置しているので、該画素の色相は肌色の
範囲外であると判断することができる。
Then, at step 130, the data of each pixel is substituted into the equation (2) to calculate dS 2 , and the obtained dS
If the value of 2 is less than or equal to the previously set threshold value, it is determined that the hue of the pixel is included in the skin color range because the data of the pixel is located in the ellipsoid. When the value of dS 2 is larger than the threshold value, the data of the pixel is located outside the ellipsoid, and thus it can be determined that the hue of the pixel is outside the skin color range.

【0029】なお、3次元色座標上における肌色点の分
布は、肌色点抽出元の画像を撮影した際の光源の種類に
応じて変化する。例として図5には、光源として蛍光灯
を用いて撮影した画像から抽出した肌色点のデータより
求めた楕円体を楕円体62として示し、光源としてタン
グステン灯を用いて撮影した画像から抽出した肌色点の
データより求めた楕円体を楕円体64として示す。従っ
て、光源の種類毎に(2)式のdS2 及び各パラメータ
の値を求めておき、各画素の色相が各楕円体によって定
義される肌色の範囲内に含まれているか否かを各々判定
するようにしてもよい。また、上記で説明した楕円体に
代えて、特開昭 53-145620号公報の第3図等に示されて
いる多角形状の領域を用いてもよい。
The distribution of the skin color points on the three-dimensional color coordinates changes according to the type of the light source when the image of the skin color point extraction source is photographed. As an example, in FIG. 5, an ellipsoid obtained from data of skin color points extracted from an image captured using a fluorescent lamp as a light source is shown as an ellipsoid 62, and a skin color extracted from an image captured using a tungsten lamp as a light source. The ellipsoid obtained from the point data is shown as an ellipsoid 64. Therefore, the values of dS 2 and the parameters of the equation (2) are obtained for each type of light source, and it is determined whether the hue of each pixel is included in the skin color range defined by each ellipsoid. You may do it. Further, instead of the ellipsoid described above, a polygonal area shown in FIG. 3 of JP-A-53-145620 may be used.

【0030】ステップ132では、ステップ130にお
ける判定結果に基づいて、原画像を、肌色領域内の画素
と判定された画素からのみ構成される肌色領域と、肌色
領域外の画素と判定された画素からのみ構成される非肌
色領域と、に分割すると共に、肌色領域内の画素か非肌
色領域内の画素かに応じて2値化した2値画像を生成
し、更に周囲が非肌色領域で囲まれた肌色領域を単一の
肌色領域とみなし、肌色領域の各々を識別するためにナ
ンバリングを行う。
In step 132, based on the determination result in step 130, the original image is composed of a skin color area formed only of pixels determined to be pixels within the skin color area and a pixel determined to be a pixel outside the skin color area. The non-skin color area is composed of only the non-skin color area, and a binarized binary image is generated according to the pixel in the skin color area or the pixel in the non-skin color area. The skin color area is regarded as a single skin color area, and numbering is performed to identify each of the skin color areas.

【0031】次のステップ134では、分割された領域
の面積を判断することにより微小領域を除去し、ナンバ
リングをし直す。ステップ136では、肌色領域の境界
画素をすべて削除してひと皮分取り除く収縮処理と、収
縮処理とは逆に境界画素を背景画素方向へ増殖させてひ
と皮分太らせる膨張処理とを行なって大領域と繁がって
いる小領域を大領域から分離する。ステップ142では
ステップ134と同様に微小領域を除去してリナンバリ
ングを行う。次のステップ140ではステップ136、
138の処理を所定回(例えば2回)実行したか否か判
定する。判定が否定された場合にはステップ136へ戻
り、ステップ140の判定が肯定される迄ステップ13
6、138を繰り返す。これにより、弱い結合をしてい
る肌色領域同士が分離されることになる。
In the next step 134, minute areas are removed by judging the areas of the divided areas, and the numbering is performed again. In step 136, contraction processing is performed to delete all the boundary pixels in the skin color area to remove one skin, and conversely to the contraction processing, expansion processing is performed to expand the boundary pixels in the direction of the background pixels to enlarge the skin by one skin, thereby forming a large area. Separate large areas from large areas. In step 142, as in step 134, minute areas are removed and renumbering is performed. In the next step 140, step 136,
It is determined whether the processing of 138 has been executed a predetermined number of times (for example, twice). If the determination is negative, the procedure returns to step 136, and step 13 is performed until the determination of step 140 is positive.
Repeat steps 6 and 138. As a result, the flesh color areas that are weakly coupled are separated from each other.

【0032】ステップ140の判定が肯定されるとステ
ップ142へ移行し、モフォロジー変換の4つの基本的
な変換の1つであるclosing により、肌色領域の穴埋め
を行う。closing は次の(3)式により定義される。
When the determination at step 140 is affirmative, the routine proceeds to step 142, where the skin color area is filled by closing, which is one of the four basic morphological transformations. closing is defined by the following expression (3).

【0033】[0033]

【数3】 [Equation 3]

【0034】また、Bは構成要素と称される有界集合で
ある。モフォロジー変換では構成要素Bを変えることに
より様々な変換を得ることができる。一般にclosing
は、集合Xに対し雑音(構成要素Bによって定まる変則
的なパターン)を取り除く、外側からの平滑化を行うも
のである。このため、図6(A)に示すように、処理対
象としての原画像(2値画像)を集合Xとし、構成要素
Bとして規則的なものを選んだとすると、図6(B)に
実線で示すように、モフォロジー変換(closing)後の集
合X’は、集合Xに対し境界が滑らかとなり、狭い間
隙、細長い割れ目、小さな穴が埋まることになる。
B is a bounded set called a component. In the morphological transformation, various transformations can be obtained by changing the constituent element B. Generally closing
Is to perform smoothing from the outside by removing noise (irregular pattern determined by the component B) from the set X. Therefore, as shown in FIG. 6A, if an original image (binary image) to be processed is set as X and a regular component B is selected, the solid line is shown in FIG. 6B. As described above, the set X ′ after the morphological transformation (closing) has a smooth boundary with respect to the set X, and narrow gaps, elongated cracks, and small holes are filled.

【0035】ステップ142では集合Xとして肌色領域
を適用して上記の変換を行うことにより、肌色領域の穴
埋めを行う。上記により、例として図8(A)に示す原
画像(なお、この原画像は、例として背景に相当する領
域の色相が肌色の範囲に含まれる色相であるものとす
る)から、図8(B)に示すように肌色領域が抽出され
ることになる。図8(B)より明らかなように、上記の
肌色領域抽出処理では、顔領域に隣接している背景領域
の色相が肌色の範囲に含まれる色相であった場合、肌色
領域として顔領域と背景領域とが混在した領域が抽出さ
れるが、その代わりに顔領域内の色相や彩度が部分的に
若干異なっていたとしても、顔領域は全て同一の肌色領
域として抽出されることになる。そして、ステップ14
2で最終的な処理結果としての2値画像を画像Aとして
メモリに記憶した後に、図2のステップ106へ移行す
る。
In step 142, the skin color area is applied as the set X and the above conversion is performed to fill in the skin color area. From the above, as an example, from the original image shown in FIG. 8A (this original image is assumed to be the hue in which the hue of the area corresponding to the background is included in the skin color range as an example), The skin color area is extracted as shown in B). As is clear from FIG. 8B, in the above-described skin color region extraction processing, when the hue of the background region adjacent to the face region is a hue included in the skin color range, the face region and the background are regarded as the skin color region. A region in which the region and the region are mixed is extracted, but instead, even if the hue or saturation in the face region is slightly different, all the face regions are extracted as the same skin color region. And step 14
After the binary image as the final processing result in 2 is stored in the memory as the image A, the process proceeds to step 106 in FIG.

【0036】ステップ106ではエッジ抽出処理を行
う。このエッジ抽出処理について、図4のフローチャー
トを参照して説明する。ステップ190では、図2のフ
ローチャートのステップ100で取り込んだ測光データ
に基づいて各画素毎に輝度値を演算し、輝度画像を表す
輝度画像データを生成する。ステップ192では、各画
素毎に、周囲に存在する8個の画素(所謂8近傍の画
素)へ各々向かう方向(合計8方向:図7に45°刻みで
互いに方向の異なる8本の矢印として示す)に沿った輝
度変化値(エッジ強度)をSobel 等の微分フィルタを用
いて各々演算する。前記8方向に沿ったエッジ強度を各
々演算するための8個の微分フィルタの一例を図7に示
す。
In step 106, edge extraction processing is performed. This edge extraction processing will be described with reference to the flowchart in FIG. In step 190, the brightness value is calculated for each pixel based on the photometric data captured in step 100 of the flowchart of FIG. 2, and brightness image data representing a brightness image is generated. In step 192, for each pixel, the direction toward each of eight surrounding pixels (so-called eight neighboring pixels) (total eight directions: shown in FIG. 7 as eight arrows different in direction at 45 ° intervals). ), The brightness change value (edge strength) is calculated using a differential filter such as Sobel. FIG. 7 shows an example of eight differential filters for calculating the edge intensities along the eight directions.

【0037】例えば所定方向に沿ったエッジ強度を演算
する場合には、図7に示す8本の矢印のうち前記所定方
向を向いた矢印が指し示す微分フィルタを用い、演算対
象の画素の濃度値及び演算対象の画素の周囲に存在する
8個の画素の濃度値に対し、前記微分フィルタの数値を
係数として各々乗じそれらの総和を演算することで前記
所定方向に沿ったエッジ強度を求めることができる。上
記演算を各方向に対応する8個の微分フィルタを用いて
行うことで、単一の画素における各方向に沿ったエッジ
強度を求めることができる。またステップ192では、
各画素毎に、上記各方向に沿ったエッジ強度を比較し、
エッジ強度の絶対値の最大値を処理対象画素のエッジ強
度として記憶する。
For example, when calculating the edge strength along a predetermined direction, a differential filter indicated by the arrow pointing in the predetermined direction out of the eight arrows shown in FIG. 7 is used, and the density value of the pixel to be calculated and The edge strength along the predetermined direction can be obtained by multiplying the density values of the eight pixels existing around the pixel to be calculated by multiplying the numerical values of the differential filter as coefficients and calculating the sum thereof. . By performing the above calculation using eight differential filters corresponding to each direction, the edge strength along each direction in a single pixel can be obtained. In step 192,
For each pixel, compare the edge strength along each of the above directions,
The maximum absolute value of the edge strength is stored as the edge strength of the pixel to be processed.

【0038】ステップ194では、上記で求めた各画素
毎のエッジ強度を予め定められた基準値と各々比較し、
エッジ強度が基準値以上であれば該画素を画像のエッジ
部分に相当する画素であると判断し、エッジ強度が基準
値以上であれば該画素を画像の非エッジ部分に相当する
画素であると判断することを繰り返すことにより、画像
を構成する各画素をエッジ部分と非エッジ部分とに分離
する。そして、各画素がエッジ部分か非エッジ部分かに
応じて2値化した2値画像を生成する。
In step 194, the edge strength of each pixel obtained above is compared with a predetermined reference value,
If the edge strength is equal to or higher than the reference value, it is determined that the pixel corresponds to an edge portion of the image. If the edge strength is equal to or higher than the reference value, the pixel is equivalent to a non-edge portion of the image. By repeating the determination, each pixel forming the image is separated into an edge portion and a non-edge portion. Then, a binarized binary image is generated according to whether each pixel is an edge portion or a non-edge portion.

【0039】次のステップ196では、上記で生成した
2値画像に対し、2値画像のエッジ部分を1画素幅のラ
インにする周知の細線化処理を施し、得られた画像を画
像Bとしてメモリに記憶する。これにより、例として図
8(A)に示す原画像から、図8(C)に示すようなエ
ッジ(図では太線で示す)が抽出されることになる。上
記によりエッジ抽出処理を終了し、図2のフローチャー
トのステップ108へ移行する。
In the next step 196, the well-known thinning process for converting the edge portion of the binary image into a line of one pixel width is applied to the binary image generated above, and the obtained image is stored as the image B in the memory. Remember. As a result, as an example, an edge (shown by a thick line in the drawing) as shown in FIG. 8C is extracted from the original image shown in FIG. 8A. The edge extraction processing is completed as described above, and the process proceeds to step 108 in the flowchart of FIG.

【0040】ステップ108では、メモリに記憶されて
いる画像A及び画像Bのデータを取り出し、肌色領域抽
出処理によって肌色領域と判定され、かつエッジ抽出処
理において非エッジ部分と判定された画素で構成された
領域を抽出する。そしてステップ110では、ステップ
108で抽出した領域に対し、エッジ部分と判定された
画素で囲まれた領域を1つの顔候補領域とみなしてラベ
リングを行い、顔候補領域を識別する。
In step 108, the data of the image A and the image B stored in the memory is taken out, and is composed of pixels which are determined to be the skin color area by the skin color area extraction processing and are determined to be the non-edge portions in the edge extraction processing. Extracted areas. Then, in step 110, the area surrounded by the pixels determined to be the edge portion is regarded as one face candidate area for the area extracted in step 108, and labeling is performed to identify the face candidate area.

【0041】上記により、原画像中に、人物の顔に相当
する領域に隣接して、肌色の範囲に含まれる色相の非人
物領域(例えば背景に相当する領域)が存在していたと
しても、人物の顔に相当する領域と背景に相当する領域
との間は、人物の顔の輪郭に相当するエッジ部分により
区画されることになり、図8(D)に異なるハッチング
で示すように、人物の顔に相当する領域と、肌色の範囲
に含まれる色相の非人物領域と、は異なる顔候補領域と
して抽出されることになる。これにより、人物の顔に相
当する領域を顔候補領域として適正に抽出することがで
きる。
As described above, even if the original image has a non-human region (for example, a region corresponding to the background) of a hue included in the skin color range adjacent to the region corresponding to the human face, A region corresponding to the face of the person and a region corresponding to the background are divided by an edge portion corresponding to the contour of the face of the person, and as shown by different hatching in FIG. The area corresponding to the face and the non-human area having the hue included in the skin color range are extracted as different face candidate areas. This makes it possible to properly extract a region corresponding to a person's face as a face candidate region.

【0042】次のステップ112〜ステップ118で
は、ラベリングした顔候補領域の各々のうち人物の顔に
相当する領域である確度が最も高いと推定される領域を
判断する。すなわち、ステップ112では、先のステッ
プ108で抽出された顔候補領域の中から1個を取り出
し、ステップ114では取り出した顔候補領域の水平フ
ィレ径および垂直フィレ径が所定値になるように前記領
域の拡大縮小処理を行って前記領域のサイズの規格化を
行うと共に、次の(4)式に従って濃度値又は輝度値の
規格化を行う。
In the next steps 112 to 118, of the labeled face candidate areas, the area which is estimated to have the highest probability of being the area corresponding to the human face is determined. That is, in step 112, one is extracted from the face candidate areas extracted in the previous step 108, and in step 114, the area is adjusted so that the horizontal fillet diameter and the vertical fillet diameter of the extracted face candidate areas become predetermined values. Is performed to standardize the size of the area, and also to standardize the density value or the brightness value according to the following equation (4).

【0043】[0043]

【数4】 [Equation 4]

【0044】ただし、 dmax :領域内最大濃度値(または輝度値) dmin :領域内最低濃度値(または輝度値) ds :イメージセンサのフルスケール濃度値(または
輝度値) d :規格化前濃度値(または輝度値) dr :規格化後濃度値(または輝度値) ステップ116では、予め記憶された複数種(本実施形
態では10種類)の標準的な顔画像(正面から見た顔画
像、横から見た顔画像(左右)、下向き顔画像、上向き
顔画像等)に対する注目領域の相関係数rを次の(5)
式によって演算し、この相関係数を特徴量とする。この
標準的な顔画像は、顔の輪郭のみのデータであっても、
顔の輪郭のデータに顔の内部構造(眼、鼻、口等)デー
タを加えたデータであってもよい。
However, dmax: maximum density value (or brightness value) in the area dmin: minimum density value (or brightness value) in the area ds: full scale density value (or brightness value) of the image sensor d: density value before normalization (Or luminance value) dr: normalized density value (or luminance value) In step 116, a plurality of types (10 types in the present embodiment) of standard face images stored in advance (face image viewed from the front, horizontal direction) The correlation coefficient r of the attention area with respect to the face image (left and right), the downward face image, the upward face image, etc. seen from
The correlation coefficient is calculated by using an equation and is used as a feature amount. This standard face image, even if only the data of the face outline,
It may be data obtained by adding the data of the internal structure (eyes, nose, mouth, etc.) of the face to the data of the outline of the face.

【0045】[0045]

【数5】 [Equation 5]

【0046】であり、Tは画像の水平、垂直フィレ径の
長さ(ここでは、フィレ径の長さは同じとした)、f
(x、y)は顔候補領域、g(x、y)は標準的な顔画
像を表している。
Where T is the horizontal and vertical fillet diameters of the image (here, the fillet diameters are the same), f
(X, y) represents a face candidate area, and g (x, y) represents a standard face image.

【0047】次のステップ118では、上記特徴量を変
量とした線形判別分析により顔候補領域が人物の顔に相
当する領域であるか否か判定し、判定結果を記憶する。
ステップ120では抽出された全ての顔候補領域に対し
て上記処理を行ったか否か判定し、ステップ120の判
定が肯定される迄ステップ112〜ステップ120を繰
り返す。
At the next step 118, it is determined whether or not the face candidate region is a region corresponding to a person's face by a linear discriminant analysis using the above-mentioned characteristic amount as a variable, and the determination result is stored.
In step 120, it is determined whether or not the above processing has been performed on all the extracted face candidate areas, and steps 112 to 120 are repeated until the determination in step 120 is affirmative.

【0048】上記では人物の顔か否かの判定を行うため
に用いる特徴量として相関係数を使用したが、特開平4-
346333号に記載されているように、重心回りの正規化さ
れたセントラル・モーメントから導出される不変量、自
己相関関数または幾何学的不変量を特徴量として用い
て、人物の顔に相当する領域か否かの判定を行うように
してもよい。
In the above, the correlation coefficient is used as the feature amount used to determine whether or not the face is a person's face.
As described in No. 346333, a region corresponding to a human face is used by using an invariant derived from the normalized central moment around the center of gravity, an autocorrelation function, or a geometric invariant as a feature amount. It may be determined whether or not.

【0049】ステップ122では、上記で決定された顔
領域の測光データと、画像の画面全体の平均濃度Dj と
に基づいて露光量Ej を演算する。なお、露光量Ej は
以下の(6)式で求めることができる。
In step 122, the exposure amount Ej is calculated based on the photometric data of the face area determined above and the average density Dj of the entire screen of the image. The exposure amount Ej can be calculated by the following equation (6).

【0050】 logEj =LMj ・CSj ・(DNj −Dj )+PBj +LBj +MBj +NBj +K1 +K2 …(6) 但し、各記号の意味は次の通りである。[0050] logEj = LMj · CSj · (DNj -Dj) + PBj + LBj + MBj + NBj + K 1 + K 2 ... (6) However, the meaning of each symbol is as follows.

【0051】LM:倍率スロープ係数。ネガフィルムの
種類とプリントサイズとで定まる引き伸ばし倍率に応じ
て予め設定されている。
LM: Magnification slope coefficient. It is set in advance according to the enlargement magnification determined by the type of negative film and the print size.

【0052】CS:カラースロープ係数。ネガフィルム
の種類毎に用意されており、アンダ露光用とオーバ露光
用とがある。プリントすべき画像コマの平均濃度が標準
ネガ濃度値に対してアンダかオーバかを判定してアンダ
露光用とオーバ露光用の何れかを選択する。
CS: Color slope coefficient. It is prepared for each type of negative film, and there are one for underexposure and one for overexposure. It is determined whether the average density of the image frame to be printed is under or over the standard negative density value, and either under exposure or over exposure is selected.

【0053】DN:標準ネガ濃度値。 D :プリントすべき画像コマの濃度値。DN: Standard negative density value. D: Density value of image frame to be printed.

【0054】PB:標準カラーペーパに対する補正バラ
ンス値。カラーペーパの種類に応じて決定される。
PB: Correction balance value for standard color paper. It is determined according to the type of color paper.

【0055】LB:標準焼付レンズに対する補正バラン
ス値。焼付けに用いるレンズの種類に応じて決定され
る。
LB: Corrected balance value for the standard printing lens. It is determined according to the type of lens used for printing.

【0056】MB:光源光量の変動やペーパ現像性能の
変化に対する補正値(マスタバランス値)。
MB: A correction value (master balance value) for fluctuations in the light source light quantity and paper development performance.

【0057】NB:ネガフィルムの特性によって定まる
ネガバランス(カラーバランス)値。
NB: Negative balance (color balance) value determined by the characteristics of the negative film.

【0058】K2 :カラー補正量。 K1 :以下の式で表される濃度補正量。K 2 : Color correction amount. K 1 : A density correction amount represented by the following formula.

【0059】[0059]

【数6】 [Equation 6]

【0060】ここで、Ka、Kbは定数であり、FDは
顔領域平均濃度である。これにより顔領域を適正に焼付
できる露光量Ej が得られる。
Here, Ka and Kb are constants, and FD is the face area average density. As a result, an exposure amount Ej capable of properly printing the face area can be obtained.

【0061】また、上記(6)式の濃度補正量K1 をフ
ィルム検定装置によって求められた補正値とし、カラー
補正量K2 を次のように顔領域平均濃度を用いて表して
もよい。
Further, the density correction amount K 1 in the equation (6) may be used as a correction value obtained by the film inspection apparatus, and the color correction amount K 2 may be expressed by using the face area average density as follows.

【0062】[0062]

【数7】 [Equation 7]

【0063】但し、Kcは定数である。更に、上記
(1)式の濃度補正量K1 、カラー補正量K2 をフィル
ム検定装置によって求められた補正量とし、(1)式の
プリントコマの平均濃度Dj を顔領域の平均濃度FDj
に置き換えて露光量を求めてもよい。また、上記では人
物の顔に相当する領域の特徴量として、顔領域の3色平
均濃度を用いていたが、これに代えて顔領域の濃度ヒス
トグラム、最大濃度、最小濃度、濃度の分散等の各種特
徴量を用いるようにしてもよい。
However, Kc is a constant. Further, the density correction amount K 1 and the color correction amount K 2 in the above equation (1) are used as the correction amounts obtained by the film inspection device, and the average density Dj of the print frame in the equation (1) is calculated as the average density FDj of the face area.
Alternatively, the exposure amount may be calculated. Further, in the above, the three-color average density of the face area is used as the feature amount of the area corresponding to the face of the person, but instead of this, the density histogram of the face area, the maximum density, the minimum density, the dispersion of the density, etc. Various characteristic amounts may be used.

【0064】次のステップ124では、上記で演算した
露光量Ej をドライバ46へ出力する。これにより、ド
ライバ46では入力された露光量Ej に基づいて、露光
量Ej に対応する位置に色補正フィルタ18を移動させ
る。また、制御部40はブラックシャッタ26を上記の
露光量Ej によって定まる所定時間だけ開放する。これ
により、露光位置に位置決めされた画像が、上記の露光
量Ej で印画紙28に焼付けされる。
At the next step 124, the exposure amount Ej calculated above is output to the driver 46. As a result, the driver 46 moves the color correction filter 18 to the position corresponding to the exposure amount Ej based on the input exposure amount Ej. Further, the control unit 40 opens the black shutter 26 for a predetermined time determined by the exposure amount Ej. As a result, the image positioned at the exposure position is printed on the photographic printing paper 28 with the above exposure amount Ej.

【0065】なお、上記では、肌色領域抽出処理を行っ
た後にエッジ抽出処理を行うようにしていたが、何れの
処理を先に実行してもよく、また肌色領域抽出処理を行
う処理部とエッジ抽出処理を行う処理部とを別個に設
け、双方の処理部で並列に処理を行うようにしてもよ
い。
In the above description, the edge extraction processing is performed after the skin color area extraction processing. However, any processing may be performed first, and the processing unit and the edge for performing the skin color area extraction processing may be executed. It is also possible to provide a processing unit that performs extraction processing separately and perform processing in parallel in both processing units.

【0066】また、肌色領域の抽出にあたっては、特開
平4-346333号公報等に記載されているように、原画像を
測光することによって得られたデータに基づいて色相値
についてのヒストグラムを求め、求めたヒストグラムを
分割し、各画素が分割した山の何れに属するかを判断し
て各画素を分割した山に対応する群に分け、各群毎にカ
ラー原画像を複数の領域に分割し、該複数の領域のうち
色相が肌色の範囲に含まれる領域を判断するようにして
もよい。但し、上記処理のうちヒストグラムの分割にあ
たっては、図9(C)に示したように顔領域が過剰に分
割されることを防止するため、分割した各々に複数の山
が含まれるように分割することが好ましい。
Further, in extracting the skin color area, as described in JP-A-4-346333, etc., a histogram of hue values is obtained based on the data obtained by photometrically measuring the original image, Divide the obtained histogram, determine which of the divided mountains each pixel belongs to, divide each pixel into groups corresponding to the divided mountains, and divide the color original image into a plurality of regions for each group, You may make it judge the area | region whose hue is included in the range of the skin color among these several areas. However, in the division of the histogram in the above processing, in order to prevent the face area from being excessively divided as shown in FIG. 9C, the division is performed so that each divided portion includes a plurality of peaks. It is preferable.

【0067】更に、上記では抽出した顔候補領域に対
し、標準的な顔画像との相関係数rを求め、この相関係
数rに基づいて人物の顔に相当する領域か否かを判定す
るようにしていたが、本発明はこれに限定されるもので
はなく、抽出した顔候補領域に対し、人物の顔と人物の
特定の部分(例えば頭部、胴体等)との位置関係に対応
する位置に、前記顔候補領域に対応する大きさ、向き
で、前記特定の部分に特有の形状パターン(例えば頭
部、胴体等の輪郭を表す形状パターン等)が存在してい
るか否かに基づいて、人物の顔に相当する領域か否かを
判定するようにしてもよい。
Further, in the above, the correlation coefficient r with the standard face image is obtained for the extracted face candidate area, and it is determined whether or not the area corresponds to a person's face based on this correlation coefficient r. However, the present invention is not limited to this, and corresponds to the positional relationship between the face of the person and a specific portion (for example, the head or the body) of the person in the extracted face candidate area. Based on whether or not a position has a size and orientation corresponding to the face candidate area and a shape pattern unique to the specific portion (for example, a shape pattern representing the contour of the head, the body, or the like). Alternatively, it may be determined whether or not the area corresponds to a person's face.

【0068】また、上記では写真フィルムとしてのネガ
フィルム12に記録された画像から人物に相当する領域
を抽出し、前記画像を印画紙28へ焼付ける際の露光量
を決定するようにしていたが、画像の記録媒体としては
リバーサルフィルム等の他の写真フィルムや紙等の各種
の記録媒体を適用することができ、また電子写真式方式
等により画像を複写する際の複写条件の決定に本発明を
適用することも可能である。
In the above, the area corresponding to a person is extracted from the image recorded on the negative film 12 as a photographic film, and the exposure amount for printing the image on the photographic paper 28 is determined. As the image recording medium, various recording media such as photographic film such as reversal film and paper can be applied, and the present invention can be used for determining copying conditions when copying an image by an electrophotographic method or the like. It is also possible to apply.

【0069】[0069]

【発明の効果】以上説明したように請求項1記載の発明
は、前記原画像上の各箇所における色相が肌色の範囲に
含まれるか否かを判断して原画像を肌色領域と非肌色領
域とに分割すると共に、原画像中のエッジを検出して原
画像中の各箇所をエッジ部分又は非エッジ部分に分類
し、肌色領域内に位置しており、かつ非エッジ部分と分
類した箇所の集まりで構成される原画像中の領域を顔候
補領域として抽出し、抽出した顔候補領域のうち人物の
顔に相当する領域であると判定した顔候補領域を抽出す
るようにしたので、カラー原画像中に存在する人物の顔
に相当する領域を高い確度で適正に抽出することができ
る、という優れた効果を有する。
As described above, according to the first aspect of the present invention, it is determined whether the hue at each position on the original image is included in the skin color range, and the original image is set to the skin color area and the non-skin color area. In addition to dividing into, the edges in the original image are detected and each part in the original image is classified into an edge part or a non-edge part, which is located in the skin color area and is classified as a non-edge part. An area in the original image composed of a collection is extracted as a face candidate area, and a face candidate area determined to be an area corresponding to a person's face is extracted from the extracted face candidate areas. This has an excellent effect that a region corresponding to a person's face existing in the image can be appropriately extracted with high accuracy.

【0070】請求項2記載の発明は、請求項1の顔領域
抽出方法により原画像から人物の顔に相当する領域を抽
出し、抽出した領域内における画像特徴量に基づいて複
写材料への複写条件を決定するようにしたので、カラー
原画像中に存在する人物の顔に相当する領域を適正に焼
付けできる複写条件を高い確度で得ることができる、と
いう優れた効果を有する。
According to a second aspect of the present invention, an area corresponding to a person's face is extracted from the original image by the face area extraction method of the first aspect, and a copy is made on a copy material based on the image feature amount in the extracted area. Since the conditions are determined, there is an excellent effect that it is possible to obtain with high accuracy a copying condition capable of properly printing an area corresponding to the face of a person existing in the color original image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態に係る写真焼付装置の概略構成図で
ある。
FIG. 1 is a schematic configuration diagram of a photographic printing apparatus according to this embodiment.

【図2】本実施形態に係る写真焼付処理を説明するフロ
ーチャートである。
FIG. 2 is a flowchart illustrating a photo printing process according to the present embodiment.

【図3】肌色領域抽出処理を説明するフローチャートで
ある。
FIG. 3 is a flowchart illustrating a skin color area extraction process.

【図4】エッジ抽出処理を説明するフローチャートであ
る。
FIG. 4 is a flowchart illustrating edge extraction processing.

【図5】色座標上で定義した、肌色領域を抽出するため
の楕円体を示す線図である。
FIG. 5 is a diagram showing an ellipsoid defined by color coordinates for extracting a skin color region.

【図6】(A)及び(B)はモフォロジー変換の1つで
あるclosing を説明するためのイメージ図である。
6A and 6B are image diagrams for explaining closing, which is one of morphological transformations.

【図7】エッジを検出するための微分フィルタの一例を
示す概念図である。
FIG. 7 is a conceptual diagram showing an example of a differential filter for detecting edges.

【図8】一例として、(A)は原画像、(B)は原画像
から肌色領域を抽出した結果、(C)は原画像からエッ
ジを抽出した結果、(D)は顔候補領域を抽出した結果
を各々示すイメージ図である。
8A and 8B show, as an example, (A) an original image, (B) a result of extracting a skin color region from the original image, (C) a result of extracting an edge from the original image, and (D) extracting a face candidate region. It is an image figure which respectively shows the result.

【図9】従来技術の問題点を説明するために、(A)は
顔候補領域を適正に抽出できた場合、(B)は顔領域と
背景領域とを分離できなかった場合、(C)は顔領域を
過剰に分割してしまった場合の一例を各々示すイメージ
図である。
9A and 9B are diagrams for explaining the problems of the related art, where FIG. 9A is a case where a face candidate area can be properly extracted, FIG. 9B is a case where a face area and a background area cannot be separated, and FIG. FIG. 3 is an image diagram showing an example of a case where a face area is excessively divided.

【符号の説明】[Explanation of symbols]

10 写真焼付装置 12 ネガフィルム 28 印画紙 32 CCDイメージセンサ 40 制御部 60 楕円体 10 Photo printing equipment 12 Negative film 28 photographic paper 32 CCD image sensor 40 control unit 60 ellipsoid

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G03B 27/72 - 27/80 H04N 1/38 - 1/393 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G03B 27/72-27/80 H04N 1/38-1/393

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 カラー原画像上の多数箇所を複数の成分
色に分解して測光し、 前記測光によって得られたデータが表す原画像上の各箇
所における色相が肌色の範囲に含まれるか否かを判断
し、原画像を肌色領域と非肌色領域とに分割すると共
に、 前記測光によって得られたデータに基づいて原画像中の
エッジを検出し、原画像中の各箇所をエッジ部分又は非
エッジ部分に分類し、 前記肌色領域内に位置しており、かつ非エッジ部分と分
類した箇所の集まりで構成される原画像中の領域を顔候
補領域として抽出し、 抽出した顔候補領域が人物の顔に相当する領域か否か判
定し、人物の顔に相当する領域であると判定した顔候補
領域を抽出する顔領域抽出方法。
1. Whether or not the hue at each position on the original image represented by the data obtained by the photometry is included in the skin color range The original image is divided into a flesh-colored area and a non-flesh-colored area, and an edge in the original image is detected based on the data obtained by the photometry. Areas in the original image that are classified into edge parts and that are located within the skin color area and that are composed of the parts classified as non-edge parts are extracted as face candidate areas, and the extracted face candidate areas are Face area extraction method that determines whether or not the area corresponds to the human face, and extracts the face candidate area determined to be the area corresponding to the person's face.
【請求項2】 請求項1記載の顔領域抽出方法により、
記録媒体に記録された原画像から人物の顔に相当する領
域を抽出し、 抽出した領域内における画像特徴量に基づいて、複写材
料への前記原画像の複写条件を決定することを特徴とす
る複写条件決定方法。
2. The face area extracting method according to claim 1,
An area corresponding to a person's face is extracted from the original image recorded on the recording medium, and the copy condition of the original image on the copy material is determined based on the image feature amount in the extracted area. How to determine copying conditions.
JP25897695A 1995-10-05 1995-10-05 Face area extraction method and copy condition determination method Expired - Lifetime JP3516786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25897695A JP3516786B2 (en) 1995-10-05 1995-10-05 Face area extraction method and copy condition determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25897695A JP3516786B2 (en) 1995-10-05 1995-10-05 Face area extraction method and copy condition determination method

Publications (2)

Publication Number Publication Date
JPH09101579A JPH09101579A (en) 1997-04-15
JP3516786B2 true JP3516786B2 (en) 2004-04-05

Family

ID=17327637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25897695A Expired - Lifetime JP3516786B2 (en) 1995-10-05 1995-10-05 Face area extraction method and copy condition determination method

Country Status (1)

Country Link
JP (1) JP3516786B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6396599B1 (en) * 1998-12-21 2002-05-28 Eastman Kodak Company Method and apparatus for modifying a portion of an image in accordance with colorimetric parameters
US7106887B2 (en) 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
EP1467549B1 (en) 2000-10-20 2011-03-23 FUJIFILM Corporation Image processing system associating information with identified subject persons of image
US7627148B2 (en) 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
CN100336070C (en) * 2005-08-19 2007-09-05 清华大学 Method of robust human face detection in complicated background image
JP4683339B2 (en) 2006-07-25 2011-05-18 富士フイルム株式会社 Image trimming device
JP4725802B2 (en) 2006-12-27 2011-07-13 富士フイルム株式会社 Imaging apparatus, focusing method, and focusing program
JP2012050520A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Fluorescent endoscopic system
WO2013038950A1 (en) 2011-09-13 2013-03-21 富士フイルム株式会社 3d imaging device
CN103828361B (en) 2011-09-21 2015-04-29 富士胶片株式会社 Image processing device, method, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
CN104221370B (en) 2012-03-29 2016-01-20 富士胶片株式会社 Image processing apparatus, camera head and image processing method

Also Published As

Publication number Publication date
JPH09101579A (en) 1997-04-15

Similar Documents

Publication Publication Date Title
US7609908B2 (en) Method for adjusting the brightness of a digital image utilizing belief values
US5497431A (en) Method of extracting characteristic image data and color data conversion device for image processing apparatus
US5463470A (en) Methods of collecting photometric image data and determining light exposure by extracting feature image data from an original image
EP0514909B1 (en) Method of determining exposure
EP1276315B1 (en) A method for processing a digital image to adjust brightness
EP0514933B1 (en) Method of extracting feature image data
JPH0863597A (en) Face extracting method
JPH09171220A (en) Exposure deciding method
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP2695067B2 (en) Method of extracting data of human face and method of determining exposure amount
EP0601363B1 (en) Method of determining amount of exposure
JP3576654B2 (en) Exposure determination method, figure extraction method, and face area determination method
JP2638691B2 (en) Exposure determination method
JP2848749B2 (en) Feature image data extraction method
JPH10268447A (en) Image processor and photographic printer
JP2638693B2 (en) Feature image data extraction method
JP2638702B2 (en) Feature image data extraction method
JP2638701B2 (en) Feature image data extraction method
JP2763221B2 (en) How to extract human face data
JP2642262B2 (en) Exposure determination method
JP2848750B2 (en) Exposure determination method
JP2638692B2 (en) Method of extracting data of human face and method of determining exposure amount
JP2001103304A (en) Method and system for extracting specific object
JP2001076149A (en) Method and device for extracting main object
JP2695074B2 (en) Photometric image data collection method and exposure amount determination method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040121

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100130

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110130

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130130

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140130

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term