JP2642262B2 - Exposure determination method - Google Patents

Exposure determination method

Info

Publication number
JP2642262B2
JP2642262B2 JP26223291A JP26223291A JP2642262B2 JP 2642262 B2 JP2642262 B2 JP 2642262B2 JP 26223291 A JP26223291 A JP 26223291A JP 26223291 A JP26223291 A JP 26223291A JP 2642262 B2 JP2642262 B2 JP 2642262B2
Authority
JP
Japan
Prior art keywords
image
area
face
original image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26223291A
Other languages
Japanese (ja)
Other versions
JPH05100328A (en
Inventor
隆章 寺下
博明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP26223291A priority Critical patent/JP2642262B2/en
Priority to US07/958,163 priority patent/US5463470A/en
Publication of JPH05100328A publication Critical patent/JPH05100328A/en
Application granted granted Critical
Publication of JP2642262B2 publication Critical patent/JP2642262B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は露光量決定方法に係り、
より詳しくは、カラー原画像をカラー複写材料または黒
白複写材料に複写するときに使用する、人物の顔の濃度
データ等の特徴画像データを抽出して露光量を決定する
露光量決定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exposure determining method,
More specifically, the present invention relates to an exposure determining method for extracting characteristic image data such as density data of a person's face, which is used when copying a color original image onto a color copying material or a black and white copying material, and determining an exposure amount.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】人物写
真を観賞するときに最も注目される部位は、人物の顔で
あり、品質の良い写真を作成するためには人物の顔の色
と濃度を適正な色と濃度に焼付ける必要がある。
2. Description of the Related Art The most noticeable part when viewing a portrait photograph is the face of the person, and the color and density of the face of the person are important for producing a high-quality photograph. Must be printed to the proper color and density.

【0003】従来では、肌色データを抽出することによ
って人物の顔のデータを抽出する方法がある(特開昭5
2−156624号公報、特開昭52−156625号
公報、特開昭53−12330号公報、特開昭53−1
45620号公報、特開昭53−145621号公報、
特開昭53−145622号公報参照)。これによれ
ば、カラー原画像を多数の測光点に分割すると共に各測
光点をR(赤)、G(緑)、B(青)の3色に分解して
測光し、測光データから計算した各測光点の色が肌色範
囲内か否か判断する。そして、肌色範囲と判断された測
光点のクラスタ(群)を顔の濃度データとする。
Conventionally, there is a method of extracting human face data by extracting skin color data (Japanese Patent Laid-Open No. Sho 5
JP-A-2-156624, JP-A-52-156625, JP-A-53-12330, JP-A-53-1
No. 45620, JP-A-53-145621,
See JP-A-53-145622). According to this, a color original image is divided into a large number of photometric points, and each photometric point is decomposed into three colors of R (red), G (green), and B (blue), and photometry is performed. It is determined whether the color of each photometric point is within the skin color range. Then, clusters (groups) of photometric points determined to be in the skin color range are used as face density data.

【0004】しかしながら、この方法では肌色範囲内の
色を顔の濃度データと仮定しているため、地面、木の
幹、洋服等の肌色または肌色に近似した色をした顔以外
の部位も顔の濃度データとして抽出されてしまうことが
あり、正確なデータを抽出できないことがある。
However, in this method, since the color within the skin color range is assumed to be the density data of the face, portions other than the face having a skin color or a color similar to the skin color, such as the ground, tree trunks and clothes, are also included in the face. It may be extracted as density data, and it may not be possible to extract accurate data.

【0005】また、上記の方法の他に同一濃度情報が円
形であることによって顔と判別する方法があるが、この
方法では撮影時の状態によって顔の肌色部分が露出して
いる形状が異るため、円形でなくなったり顔の一部が欠
けたりして正確に顔の領域を抽出できないことがある。
In addition to the above-mentioned method, there is a method of discriminating a face by the same density information being a circle. In this method, the shape in which the skin color portion of the face is exposed differs depending on the state at the time of photographing. As a result, the face area may not be accurately extracted because the face is not circular or a part of the face is missing.

【0006】本発明は上記問題点を解決するために成さ
れたもので、カラー原画像から人物の顔のデータ等の特
徴画像領域を高い確度で求め、求めた特徴画像領域の特
徴画像データに基づいて複写材料への露光量を決定する
露光量決定方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem. A feature image area such as face data of a person is obtained with high accuracy from a color original image, and the feature image data of the obtained feature image area is obtained. It is an object of the present invention to provide an exposure determining method for determining an exposure to a copy material based on the exposure.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に請求項1の発明は、露光量決定方法において、カラー
原画像に関連した情報を読み取ると共に前記カラー原画
像を多数画素に分割して各画素を赤光、緑光及び青光の
3色に分解して測光し、測光により得られたデータに基
づいて色相値のヒストグラムを求め、求めたヒストグラ
ムを山毎に分割し、カラー原画像の各画素が分割された
山のどれに属するかを判断して画素を分割された山に対
応する群に分けると共に、各々の群毎にカラー原画像を
分割し、分割された領域から前記読み取ったカラー原画
像に関連した情報に最も適合する領域を特徴画像領域と
して選択し、前記特徴画像領域の画像データに基づいて
複写材料への露光量を決定することを特徴としている。
According to a first aspect of the present invention, there is provided an exposure determining method for reading information relating to a color original image and dividing the color original image into a plurality of pixels. Each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed. A histogram of hue values is obtained based on the data obtained by the photometry, and the obtained histogram is divided for each mountain to obtain a color original image. Judging which of the divided mountains each pixel belongs to, dividing the pixels into groups corresponding to the divided mountains, dividing the color original image for each group, and reading the above from the divided area It is characterized in that an area most suitable for the information related to the color original image is selected as a characteristic image area, and an exposure amount to the copy material is determined based on the image data of the characteristic image area.

【0008】請求項2の発明は、露光量決定方法におい
て、カラー原画像に関連した情報を読み取ると共に前記
カラー原画像を多数画素に分割して各画素を赤光、緑光
及び青光の3色に分解して測光し、測光により得られた
データに基づいて色相値のヒストグラムまたは色相値及
び彩度値についての2次元ヒストグラムを求め、求めた
2次元ヒストグラムを山毎に分割し、カラー原画像の各
画素が分割された山のどれに属するかを判断して画素を
分割された山に対応する群に分けると共に、各々の群毎
にカラー原画像を分割し、分割された領域から前記読み
取ったカラー原画像に関連した情報に最も適合する領域
を特徴画像領域として選択し、前記特徴画像領域の画像
データに基づいて複写材料への露光量を決定することを
特徴としている。
According to a second aspect of the present invention, in the exposure determining method, information relating to the color original image is read, and the color original image is divided into a large number of pixels, and each pixel is divided into three colors of red light, green light and blue light. Into a light source image, obtain a histogram of hue values or a two-dimensional histogram of hue values and saturation values based on the data obtained by the light measurement, divide the obtained two-dimensional histogram into each mountain, and obtain a color original image. It is determined which of the divided mountains each pixel belongs to, and the pixels are divided into groups corresponding to the divided mountains, and the color original image is divided for each group, and the read image is read from the divided area. An area most suitable for the information related to the color original image is selected as a characteristic image area, and the exposure amount to the copy material is determined based on the image data of the characteristic image area.

【0009】請求項3の発明は、請求項1または2に記
載の露光量決定方法において、前記カラー原画像に関連
した情報は、主要画像のサイズ情報または主要画像のサ
イズを求めるためのサイズ情報であることを特徴として
いる。
According to a third aspect of the present invention, in the exposure amount determining method according to the first or second aspect, the information relating to the color original image is the size information of the main image or the size information for obtaining the size of the main image. It is characterized by being.

【0010】請求項4の発明は、請求項1または2に記
載の露光量決定方法において、前記カラー原画像に関連
した情報は、主要画像が存在する画像領域を表す領域情
報であることを特徴としている。
According to a fourth aspect of the present invention, in the exposure determining method according to the first or second aspect, the information related to the color original image is area information representing an image area where a main image exists. And

【0011】請求項5の発明は、請求項1または2に記
載の露光量決定方法において、前記カラー原画像に関連
した情報は、合焦された画像のカラー原画像における合
焦位置を表す情報であることを特徴としている。
According to a fifth aspect of the present invention, in the exposure amount determining method according to the first or second aspect, the information related to the color original image is information representing a focus position of the focused image in the color original image. It is characterized by being.

【0012】請求項6の発明は、請求項1または2に記
載の露光量決定方法において、前記カラー原画像に関連
した情報は、主要画像のサイズを表すサイズ情報及び主
要画像が存在する画像領域を表す領域情報の少なくとも
一方が撮影時に撮影装置によって記録または記憶された
カメラ情報であることを特徴としている。
According to a sixth aspect of the present invention, in the exposure amount determining method according to the first or second aspect, the information relating to the color original image includes size information representing a size of a main image and an image area where the main image exists. Is characterized in that at least one of the area information indicating is camera information recorded or stored by the photographing apparatus at the time of photographing.

【0013】[0013]

【作用】請求項1の発明では、カラー原画像を多数画素
に分割して各画素を赤光、緑光及び青光の3色に分解し
て測光する。また、このカラー原画像に関連した情報を
読み取る。このカラー原画像に関連した情報としては、
請求項3に記載した主要画像のサイズを表すサイズ情
報、請求項4に記載した主要画像が存在する画像領域を
表す領域情報、請求項5に記載した合焦された画像のカ
ラー原画像における合焦位置を表す情報、請求項6に記
載した主要画像のサイズを表すサイズ情報及び主要画像
が存在する画像領域を表す領域情報の少なくとも一方が
撮影時に撮影装置によって記録または記憶されたカメラ
情報がある。次に、測光により得られたデータに基づい
て色相値のヒストグラムを求める。この求められたヒス
トグラムをヒストグラムの谷または山の裾を境にして山
毎に分割する。これによって、各山の色相値範囲が定め
られる。次に、各画素の色相値がどの色相値範囲に属す
るかを判断することにより、各画素が分割された山のど
れに属するかを判断し、多数画素を分割された山に対応
する群(クラスタ)に分ける。続いて、カラー原画像を
分割された群に対応する領域に分ける。このとき、同じ
群に含まれる画素が異る領域に分けられる場合もある
が、異る群に含まれる画素が同じ領域に含まれることは
ない。これによって、カラー原画像は、ヒストグラムに
よって分けられた色相値範囲内の色相値を持つ画素を含
む領域毎に分けられることになる。従って、カラー原画
像上の1つの領域内には、色相値が所定範囲内の画素が
含まれることになり、この画像の特徴を表す領域から読
み取ったカラー原画像に関連した情報に最も適合する領
域を特徴画像領域として選択する。選択された特徴画像
領域の画像データを特徴画像データとして抽出する。
According to the first aspect of the present invention, a color original image is divided into a large number of pixels, and each pixel is separated into three colors of red light, green light and blue light, and photometry is performed. In addition, information related to the color original image is read. As information related to this color original image,
The size information indicating the size of the main image described in claim 3, the area information indicating the image area where the main image exists according to claim 4, and the combination of the focused image described in claim 5 in the color original image. At least one of the information indicating the focal position, the size information indicating the size of the main image described in claim 6, and the area information indicating the image area where the main image exists is camera information recorded or stored by the imaging device at the time of shooting. . Next, a histogram of hue values is obtained based on the data obtained by photometry. The obtained histogram is divided into peaks at a valley or a foot of a peak of the histogram. Thus, the hue value range of each mountain is determined. Next, it is determined which hue value range the hue value of each pixel belongs to, so that it is determined which of the crests each pixel belongs to. Cluster). Subsequently, the color original image is divided into regions corresponding to the divided groups. At this time, pixels included in the same group may be divided into different regions, but pixels included in different groups are not included in the same region. As a result, the color original image is divided into regions each including a pixel having a hue value within the hue value range divided by the histogram. Therefore, one area on the color original image includes pixels whose hue value is within a predetermined range, and most suitable for information related to the color original image read from the area representing the feature of this image. An area is selected as a feature image area. The image data of the selected characteristic image area is extracted as characteristic image data.

【0014】ここで、フィルム種や光源種の変化、経時
変化、フィルム現像差等があると、カラー原画像の色味
は画面全体で均一に変化するが、このように色味が変化
してもヒストグラム上の位置が変わるだけで画像の各画
素によって作られる群は保存されるからカラー原画像の
分割領域は色味が変化しても変化しない。従って、本発
明では、フィルム種や光源種の変化、経時変化、フィル
ム現像差等によってカラー原画像の色味や色範囲が変化
しても人物の顔の濃度データを抽出することができる。
Here, if there is a change in the kind of film or light source, a change with time, a difference in film development, etc., the color of the color original image changes uniformly over the entire screen. Also, since the group formed by each pixel of the image is preserved only by changing the position on the histogram, the divided region of the original color image does not change even if the color changes. Therefore, according to the present invention, density data of a person's face can be extracted even when the color or color range of a color original image changes due to a change in a film type or a light source type, a change over time, a film development difference, or the like.

【0015】また、上記カラー画像に関連した情報とし
て、上記のサイズ情報を用いた場合には、主要画像のサ
イズによって抽出する領域を選択することができ、選択
された領域のデータは主要画像の特徴画像データとして
抽出することができる。上記の領域情報を用いた場合に
は、主要画像が存在する画像領域に基づいて抽出する領
域を選択することができ、この領域のデータは主要画像
の特徴画像データとして抽出することができる。また、
カラー原画像の合焦位置には、主要画像の存在性が高い
ため、合焦位置を表す情報を用いることにより、主要画
像の抽出領域の特定が容易に行なうことができ、主要画
像の特徴画像データの抽出が短時間で行なうことができ
る。更に、カメラ情報は、主要画像のサイズ情報または
主要画像のサイズを求めるサイズ情報及び主要画像が存
在する画像領域を表す領域情報の少なくとも一方が、撮
影時に撮影装置によって記録または記憶されている。こ
の情報を用いることにより主要画像の撮影時の画像サイ
ズ、撮影倍率及び領域を特定することができる。このた
め、主要画像の特徴画像データの抽出が容易に行なうこ
とができる。
When the size information is used as the information related to the color image, an area to be extracted can be selected according to the size of the main image, and the data of the selected area is the data of the main image. It can be extracted as feature image data. When the above-described area information is used, an area to be extracted can be selected based on an image area where the main image exists, and data of this area can be extracted as characteristic image data of the main image. Also,
Because the presence of the main image is high at the in-focus position of the color original image, by using the information indicating the in-focus position, the extraction region of the main image can be easily specified, and the feature image of the main image can be specified. Data can be extracted in a short time. Further, in the camera information, at least one of size information of the main image, size information for obtaining the size of the main image, and area information indicating an image area where the main image exists, is recorded or stored by the imaging device at the time of shooting. By using this information, it is possible to specify an image size, a shooting magnification, and a region when the main image is shot. For this reason, the feature image data of the main image can be easily extracted.

【0016】そして、上記のようにして抽出された特徴
画像データに基づいて露光量を決定し、プリントを作成
すれば特徴画像部を適正な濃度または濃度と色に焼付け
ることができる。
If the exposure amount is determined based on the characteristic image data extracted as described above and a print is created, the characteristic image portion can be printed with an appropriate density or density and color.

【0017】特徴画像部の赤色、緑色、青色の3色デー
タのうち少なくとも1色を用いることで、適正な濃度に
焼き付けるための露光量を決定することができる。ま
た、前記3色のデータを用いることによって、適正な濃
度と色に焼き付けるための露光量を決定することができ
る。
By using at least one of the three color data of red, green, and blue in the characteristic image portion, it is possible to determine an exposure amount for printing to an appropriate density. Further, by using the data of the three colors, it is possible to determine an exposure amount for printing an appropriate density and color.

【0018】画像の特徴部である特徴画像の色相が、他
の部位の色相と同一または近似している場合、色相値の
みのヒストグラムに基づいてカラー原画像を分割する
と、特徴画像と他の部位とを区別できないことがある。
そこで、請求項2の発明では、色相値に加えて更に彩度
値を導入し、色相値及び彩度値の2次元ヒストグラムを
求め、この2次元ヒストグラムを山毎に分割して上記と
同様にしてカラー原画像を分割し、上記で説明したよう
に、この分割した領域から読み取ったカラー原画像に関
連した情報に最も適合する領域を特徴画像領域として選
択する。選択された特徴画像領域の画像データを特徴画
像データとして抽出し、抽出された特徴画像データに基
づいて露光量を決定する。
If the hue of the characteristic image, which is the characteristic part of the image, is the same or similar to the hue of another part, the original color image is divided based on the histogram of only the hue values. Sometimes cannot be distinguished.
Therefore, according to the second aspect of the present invention, a saturation value is further introduced in addition to the hue value, a two-dimensional histogram of the hue value and the saturation value is obtained, and the two-dimensional histogram is divided for each mountain and the same as above. As described above, a region that best matches the information related to the color original image read from the divided region is selected as a feature image region. Image data of the selected characteristic image area is extracted as characteristic image data, and an exposure amount is determined based on the extracted characteristic image data.

【0019】このように、色相値と彩度値とを用いるこ
とにより、特徴画像と色相が同一または近似した部位が
混在していても特徴画像データを抽出することがてき
る。
As described above, by using the hue value and the saturation value, the feature image data can be extracted even if the feature image and the part having the same or similar hue are mixed.

【0020】人物写真を観賞するときに最も注目される
部位は、人物の顔であるので、カラー原画像の分割され
た領域が人物の顔か否かを判断し、人物の顔と判断され
た領域のデータを特徴画像データとして抽出するのが好
ましい。この場合、色相値の2次元ヒストグラムに基づ
いて特徴画像データ、すなわち人物の顔のデータを抽出
することもできるが、色相値及び彩度値の2次元ヒスト
グラムに基づいて人物の顔のデータを抽出することもで
きる。人物の顔の色相は、地面、木等の肌色部分と近似
しているが、ほとんどの場合彩度が異るため、色相値及
び彩度値の2次元ヒストグラムに基づいて人物の顔のデ
ータを抽出するようにすれば、顔、地面、木等が混合す
る画像からも人物の顔のデータを抽出することができ
る。
Since the most noticeable part when viewing a portrait is the face of a person, it is determined whether or not the divided area of the color original image is the face of the person, and the face is determined to be the face of the person. It is preferable to extract the data of the area as feature image data. In this case, feature image data, that is, data of a person's face can be extracted based on a two-dimensional histogram of hue values, but data of a person's face is extracted based on a two-dimensional histogram of hue values and saturation values. You can also. The hue of a person's face is similar to the skin color portion of the ground, trees, etc., but in most cases the saturation is different. Therefore, the data of the person's face is calculated based on a two-dimensional histogram of hue values and saturation values. By extracting the data, the face data of the person can be extracted from the image in which the face, the ground, the tree, and the like are mixed.

【0021】なお、特徴画像データとして抽出するデー
タは、人物の顔のデータ以外であってもよい。
The data to be extracted as the characteristic image data may be other than the data of the face of a person.

【0022】[0022]

【実施例】以下図面を参照して本発明の実施例を詳細に
説明する。本実施例は、オートプリンタに本発明を適用
したものである。
Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the present invention is applied to an auto printer.

【0023】図1に示されるように、本実施例のオート
プリンタは、カラーネガフィルム10を搬送する搬送ロ
ーラ12を備えている。この搬送ローラ12のカラーネ
ガフィルム10搬送方向上流側には、磁気ヘッド50が
配設されている。この磁気ヘッド50はカラーネガフィ
ルム10に記録された撮影時の情報を読み取り可能な位
置に配置している。磁気ヘッド50は、磁気ヘッド50
の出力を増幅する増幅器52及びアナログ−デジタル
(A/D)変換器54を介して顔抽出回路36に接続さ
れている。
As shown in FIG. 1, the automatic printer according to the present embodiment includes a transport roller 12 for transporting a color negative film 10. A magnetic head 50 is disposed upstream of the transport roller 12 in the transport direction of the color negative film 10. The magnetic head 50 is arranged at a position where the information at the time of photographing recorded on the color negative film 10 can be read. The magnetic head 50 is a magnetic head 50
Is connected to the face extraction circuit 36 via an amplifier 52 that amplifies the output of the face extraction circuit and an analog-digital (A / D) converter 54.

【0024】また、搬送ローラ12によって搬送される
カラーネガフィルム10の下方には、光源14、調光フ
イルタ等の色補正フィルタ16および拡散ボックス18
が順に配列されている。
A light source 14, a color correction filter 16 such as a light control filter, and a diffusion box 18 are provided below the color negative film 10 transported by the transport rollers 12.
Are arranged in order.

【0025】一方、カラーネガフィルム10の上方に
は、カラーネガフィルム10を透過した光線を2方向に
分配する分配用プリズム20が配置されている。分配用
プリズム20によって分配された一方の光路上には、投
影光学系22、ブラックシャッタ23及びカラーペーパ
ー(印画紙)24が順に配列され、他方の光路上には投
影光学系26及びCCDイメージセンサ28が順に配列
されている。
On the other hand, above the color negative film 10, a distribution prism 20 for distributing light transmitted through the color negative film 10 in two directions is arranged. On one optical path distributed by the distribution prism 20, a projection optical system 22, a black shutter 23, and color paper (printing paper) 24 are sequentially arranged, and on the other optical path, a projection optical system 26 and a CCD image sensor. 28 are arranged in order.

【0026】このCCDイメージセンサ28は、カラー
ネガフィルム10の1画面(1コマ)全体を多数の画素
(例えば256×256画素)に分割して各画素をR
(赤)、G(緑)、及びB(青)の3色に分解して測光
する。CCDイメージセンサ28は、CCDイメージセ
ンサ出力を増幅する増幅器30及びアナログ−デジタル
(A/D)変換器32を介してCCDイメージセンサの
感度補正用の3×3マトリックス回路34に接続されて
いる。
The CCD image sensor 28 divides an entire screen (one frame) of the color negative film 10 into a large number of pixels (for example, 256 × 256 pixels) and divides each pixel into R pixels.
Photometry is performed by separating the color into three colors (red), G (green), and B (blue). The CCD image sensor 28 is connected to a 3 × 3 matrix circuit 34 for correcting the sensitivity of the CCD image sensor via an amplifier 30 for amplifying the output of the CCD image sensor and an analog-digital (A / D) converter 32.

【0027】3×3マトリックス回路34は、以下で説
明するルーチンのプログラムを記憶したマイクロコンピ
ュータで構成された顔抽出回路36を介して適正露光量
計算回路40に接続されると共に、1画面全体の平均濃
度を演算する平均濃度演算回路38を介して適正露光量
計算回路40に接続されている。そして、適正露光量計
算回路40は、色補正フイルタを駆動するドライバ42
を介して色補正フィルタ16に接続されている。
The 3 × 3 matrix circuit 34 is connected to an appropriate exposure amount calculation circuit 40 via a face extraction circuit 36 composed of a microcomputer in which a program for a routine described below is stored. It is connected to an appropriate exposure amount calculation circuit 40 via an average density calculation circuit 38 for calculating an average density. Then, the appropriate exposure amount calculation circuit 40 includes a driver 42 for driving the color correction filter.
Is connected to the color correction filter 16 via the.

【0028】カラーネガフィルム10には、カラー原画
像に関連した情報としてのカメラ情報が磁気的に記録さ
れている。このカメラ情報は、主要画像サイズ情報およ
び主要画像存在領域情報から構成されている。主要画像
サイズ情報としては、主要画像サイズSまたは撮影倍率
mがある。なお、この主要画像サイズSまたは撮影倍率
mは、主要被写体の標準的な長さ(或いは幅、例えば、
顔の長径或いは短径または人物の高さ)S0、撮影レン
ズの焦点距離f、撮影レンズから被写体までの距離L、
結像点までの距離Fに基づいて、以下に示した式(1)
または(2)によって求めることができる。この主要画
像サイズ情報は、カメラ側で主要画像サイズSを求めて
記録しておいても、またカメラ側で撮影倍率mを求め、
求めた値を記録しておいてオートプリンタ側で主要画像
サイズSを求めてもよい。更にまた、上記各値を記録し
ておき、オートプリンタ側で主要画像サイズSを演算し
て求めてもよい。
The color negative film 10 magnetically records camera information as information relating to a color original image. The camera information includes main image size information and main image existence area information. The main image size information includes a main image size S or a shooting magnification m. Note that the main image size S or the imaging magnification m is a standard length (or width, for example,
S0, focal length f of the photographing lens, distance L from the photographing lens to the subject,
Based on the distance F to the imaging point, the following equation (1)
Alternatively, it can be obtained by (2). This main image size information is obtained by recording the main image size S on the camera side and recording it, and also obtaining the photographing magnification m on the camera side,
The main image size S may be obtained on the auto printer side by recording the obtained value. Furthermore, the above values may be recorded, and the main image size S may be calculated and calculated on the auto printer side.

【0029】 S=S0・f/(L−f) −−−−−(1) m=f/(F−f) −−−−−(2) 上記主要画像として、本実施例では微妙な色再現が要求
される人物の顔を採用する。なお、主要画像は人物に限
定されるものではなく、適正な色再現を行ないたい画像
領域であってもよい。
S = S0 · f / (L−f) −−−− (1) m = f / (F−f) −−−− (2) As the above main image, the present embodiment is subtle. Use the face of a person who needs color reproduction. It should be noted that the main image is not limited to a person, and may be an image area in which appropriate color reproduction is desired.

【0030】また、主要画像存在領域情報、すなわち本
実施例では人物の顔の存在する領域は、例えば、多点測
距装置におけるフォーカス点情報またはそれを含む画像
領域の領域情報に基づいて特定することができる。した
がって、カメラ側でフォーカス点位置またそれを含む画
像領域の領域情報から求めた主要画像存在領域を記録
し、この情報を読み取って主要画像の存在位置および領
域を特定してもよく、また上記情報によって主要画像の
存在位置および領域をプリンタ側で演算するようにして
もよい。
Further, the main image existence area information, that is, the area where the face of the person exists in the present embodiment, is specified based on, for example, the focus point information in the multipoint distance measuring apparatus or the area information of the image area including the same. be able to. Therefore, the camera may record the main image existence area obtained from the focus point position or the area information of the image area including the focus point position, and read this information to identify the main image existence position and the area. The location and area of the main image may be calculated on the printer side.

【0031】なお、上記カメラ情報は、カラーネガフィ
ルム10に磁気的に記録したが、情報を記録できるもの
であればよく、バーコードや光学マーク等によって光学
的に記録してもよい。この情報が光学的に記録されてい
る場合の情報の読み取りは、上記磁気ヘッドの代わりに
光電センサ等の検出器を配設することにより行なう。検
出器からは情報に応じて信号が出力され、この信号に基
づいて情報を読み取ることができる。また、情報を、カ
ラーネガフィルム10に記録することなく、LSIカー
ドやICカード等の記憶媒体に記憶してもよい。
Although the camera information is magnetically recorded on the color negative film 10, any information can be recorded as long as the information can be recorded, and the camera information may be optically recorded by a bar code, an optical mark, or the like. Reading of the information when this information is optically recorded is performed by disposing a detector such as a photoelectric sensor instead of the magnetic head. A signal is output from the detector in accordance with the information, and the information can be read based on the signal. Further, the information may be stored in a storage medium such as an LSI card or an IC card without being recorded on the color negative film 10.

【0032】次に本実施例の作用を説明する。現像処理
が終了したカラーネガフィルム10は、オートプリンタ
の所定位置に設置される。焼付処理が開始されるとカラ
ーネガフィルム10の焼付処理する画像コマが焼付位置
まで搬送される。この搬送時には、磁気ヘッド50は、
カラーネガフィルム10に記録された情報を読み取り、
読み取った情報に応じた信号を出力する。この出力信号
は増幅器52で増幅された後、A/D変換器54でデジ
タル信号に変換され、顔抽出回路36に入力される。
Next, the operation of this embodiment will be described. The color negative film 10 after the development processing is set at a predetermined position of the auto printer. When the printing process is started, an image frame to be printed on the color negative film 10 is transported to the printing position. During this transfer, the magnetic head 50
Reads information recorded on the color negative film 10,
A signal corresponding to the read information is output. The output signal is amplified by an amplifier 52, converted into a digital signal by an A / D converter 54, and input to a face extraction circuit 36.

【0033】画像コマが焼付位置に至ると焼付処理が開
始される。光源14から照射された光線は、色補正フィ
ルタ16、拡散ボックス18及びカラーネガフィルム1
0を透過し、分配用プリズム20によって分配され、投
影光学系26を介してCCDイメージセンサ28に受光
される。なお、このときブラックシャツタ23は閉じら
れている。
When the image frame reaches the printing position, the printing process is started. The light emitted from the light source 14 is transmitted to the color correction filter 16, the diffusion box 18, and the color negative film 1.
0, is distributed by the distribution prism 20, and is received by the CCD image sensor 28 via the projection optical system 26. At this time, the black shirt 23 is closed.

【0034】この受光によってCCDイメージセンサ2
8は、1画面全体を多数の画素に分割して各画素をR、
G、B3色に分解して測光し、測光データ信号を出力す
る。測光データ信号は増幅器30で増幅された後A/D
変換器32でデジタル信号に変換され、3×3マトリッ
クス回路34でイメージセンサの感度補正が行われ、顔
抽出回路36と平均濃度演算回路38に入力される。平
均濃度演算回路38では、1画面全体の平均濃度を演算
する。
The light received by the CCD image sensor 2
8 divides the entire screen into a large number of pixels and divides each pixel into R,
The light is separated into three colors of G and B, and the light is measured, and a light measurement data signal is output. After the photometric data signal is amplified by the amplifier 30, the A / D
The signal is converted into a digital signal by the converter 32, the sensitivity of the image sensor is corrected by the 3 × 3 matrix circuit 34, and is input to the face extraction circuit 36 and the average density calculation circuit 38. The average density calculation circuit 38 calculates the average density of one entire screen.

【0035】顔抽出回路36では、以下で説明するよう
に、カラーネガフィルム10に記録されたカメラ情報と
画像の測光データとに基づいて1画面中の人物の顔(主
要画像)の部位を推定し、顔と推定された部位のR、
G、B3色測光データを出力する。露光量演算回路40
は、顔抽出回路36から出力された3色測光データと平
均濃度演算回路38で求められた平均濃度とを用いて露
光量を演算し、ドライバ42を介して色補正フイルタ1
6を制御すると共にブラックシャッタ23を開閉して焼
付けを行う。
The face extraction circuit 36 estimates the part of the face (main image) of a person in one screen based on the camera information recorded on the color negative film 10 and the photometric data of the image, as described below. , The R of the part estimated to be the face,
Outputs G and B colorimetric data. Exposure calculation circuit 40
Calculates the exposure using the three-color photometric data output from the face extraction circuit 36 and the average density calculated by the average density calculation circuit 38, and outputs the color correction filter 1 via the driver 42.
6 and the black shutter 23 is opened and closed to perform printing.

【0036】なお、平均濃度演算回路38で求めた平均
濃度を用いるとき、平均濃度に対する露光補正量を求め
ることができる。露光補正量を求めない場合、必ずしも
平均濃度演算回路38を必要とせず、直接顔抽出回路3
6から出力された3色測光データより露光量を求めても
よい。
When the average density obtained by the average density calculation circuit 38 is used, an exposure correction amount for the average density can be obtained. When the exposure correction amount is not determined, the average density calculation circuit 38 is not necessarily required, and the face extraction circuit 3 is not required.
The exposure amount may be obtained from the three-color photometric data output from the unit 6.

【0037】図2は顔抽出回路36よる顔抽出ルーチン
を示すものであり、ステップ100において入力された
3色測光データのノイズ除去、すなわちスムージングを
行う。次のステップ102では下記の(3)〜(5)式
によってR、G、B3色測光データをH(色相値)、L
(明度値)、S(彩度値)に変換する。
FIG. 2 shows a face extraction routine by the face extraction circuit 36. In step 100, noise removal, that is, smoothing of the three-color photometric data input is performed. In the next step 102, the R, G, and B colorimetric data are converted into H (hue value) and L by the following equations (3) to (5).
(Lightness value) and S (saturation value).

【0038】 L=(R+G+B)/3 ・・・・(3) S=1−min(r’,g’,b’)・・・・(4) H=H’/2Pi ・・・・(5) ただし、R、G、Bは図3の3次元色座標に示すように
各々最小値が0、最大値が1になるように規格された3
色測光データ、min( )は( )内の数値の最小
値、r’、g’、b’はr’=R/L、g’=G/L、
b’=B/Lを表す。またH’は次の(6)式で与えら
れ、Pi(iは、R、G、Bのうちの1つ)は図3のP
である。
L = (R + G + B) / 3 (3) S = 1-min (r ′, g ′, b ′) (4) H = H ′ / 2Pi (4) 5) However, R, G, and B are standardized such that the minimum value is 0 and the maximum value is 1 as shown in the three-dimensional color coordinates of FIG.
Colorimetric data, min () is the minimum value in parentheses, r ′, g ′, b ′ are r ′ = R / L, g ′ = G / L,
b ′ = B / L. H ′ is given by the following equation (6), and Pi (i is one of R, G, and B) is P
It is.

【0039】[0039]

【数1】 ただし、(Equation 1) However,

【0040】[0040]

【数2】 ステップ104では、図4(1)に示すように、各々直
交する色相値軸、彩度値軸及び画素数軸から成る座標系
を用いて色相値及び彩度値についての2次元ヒストグラ
ムを求め、次のステップ106において後述するよう
に、求めた2次元ヒストグラムを山毎に分割する、すな
わち2次元ヒストグラムのクラスタリングを行う。次の
ステップ108ではクラスタリングされた2次元ヒスト
グラムの山に基づいて多数の画素のクラスタリングを行
い、このクラスタリングに基づいて画面を分割し、分割
された領域から人物の顔の候補となる領域を抽出する。
次のステップ110では、詳細は後述するが顔の候補と
して抽出された領域とカメラ情報とに基づいて顔の領域
を推定し、顔として推定された領域のR、G、B3色測
光データを出力する。そして、ステップ112において
全コマの焼付けが終了したか否か判断し、焼付終了と判
断されたときにこのルーチンを終了する。
(Equation 2) In step 104, as shown in FIG. 4A, a two-dimensional histogram of the hue value and the saturation value is obtained by using a coordinate system including the orthogonal hue value axis, saturation value axis, and pixel number axis. In the next step 106, as described later, the obtained two-dimensional histogram is divided into mountains, that is, clustering of the two-dimensional histogram is performed. In the next step 108, a large number of pixels are clustered based on the peaks of the clustered two-dimensional histogram, the screen is divided based on the clustering, and a region that is a candidate for a human face is extracted from the divided region. .
In the next step 110, a face area is estimated based on the area extracted as a face candidate and the camera information, which will be described in detail later, and R, G, and B three-color photometric data of the area estimated as the face is output. I do. Then, it is determined in step 112 whether or not printing of all frames has been completed. When it is determined that printing has been completed, this routine is terminated.

【0041】次に、上記ステップ106〜110の詳細
を説明する。図5はステップ106の詳細を示すもの
で、ステップ120において色相値及び彩度値について
の2次元ヒストグラムから評価すべき領域を切り出す。
図4では説明を簡単にするため1コマを評価領域とし
た。ステップ122では評価領域があるか否か判断す
る。ステップ120で評価領域が切り出せなかったと
き、すなわち全ての領域の評価が終了したときには評価
領域がないため、このルーチンを終了する。評価領域が
ある場合には、ステップ124において山切り出し用ヒ
ストグラムを作成するためのX、Y軸の決定を行う。す
なわち、評価領域を画素数軸と平行な軸を中心に回転さ
せ、ヒストグラムの山を横から見たときに多峰性を優先
しかつ山が最も尖鋭となる位置を求め、この位置を基準
にX、Y軸を決定する。処理時間の短縮が必要な場合
は、精度が多少低下するが、X、Y軸としてヒストグラ
ムの分散が最大となる軸を用いてもよい。図4(1)の
例では、1〜4の符号を付した4つの山を横から見たと
きに多峰性を優先しかつ山が最も尖鋭になる位置は3つ
の山が見える位置であるので見る方向と直交する方向に
X軸を定め、このX軸と直交する方向にY軸を定めてい
る。
Next, the details of steps 106 to 110 will be described. FIG. 5 shows details of step 106. In step 120, an area to be evaluated is cut out from the two-dimensional histogram of the hue value and the saturation value.
In FIG. 4, one frame is set as an evaluation area for simplifying the explanation. In step 122, it is determined whether or not there is an evaluation area. When the evaluation area cannot be cut out in step 120, that is, when the evaluation of all the areas is completed, there is no evaluation area, so this routine ends. If there is an evaluation region, the X and Y axes for creating a histogram for mountain cutting are determined in step 124. In other words, the evaluation area is rotated around an axis parallel to the pixel number axis, and when a mountain of the histogram is viewed from the side, a multimodal property is prioritized and a position where the mountain is the sharpest is obtained. Determine X and Y axes. If the processing time needs to be shortened, the accuracy is slightly reduced, but an axis with the maximum variance of the histogram may be used as the X and Y axes. In the example of FIG. 4 (1), when the four mountains numbered 1 to 4 are viewed from the side, multi-modality is prioritized, and the positions where the mountains are sharpest are positions where the three mountains can be seen. Therefore, the X axis is defined in a direction orthogonal to the viewing direction, and the Y axis is defined in a direction orthogonal to the X axis.

【0042】次のステップ126では、2次元ヒストグ
ラムをX、Y軸に投影させて各々1次元ヒストグラムを
作成する。図4(1)の例では、X軸と直交する方向か
ら見ると1、2の符号を付した山が重なって見えるため
X軸についての1次元ヒストグラムには、符号3を付し
た山、符号1、2を付した山、符号4を付した山の3つ
の山が現れ、Y軸と直交する方向から見ると1〜4の符
号を付した山が重なって見えるためY軸についての1次
元ヒストグラムには1つの山が現れている。次のステッ
プ128では、次の(7)式によってヒストグラムを評
価関数H(a)に変換しこの評価関数に基づいてX軸に
ついてのヒストグラムから山の切り出しを行う。
In the next step 126, a one-dimensional histogram is created by projecting the two-dimensional histogram on the X and Y axes. In the example of FIG. 4A, when viewed from a direction orthogonal to the X axis, the peaks denoted by reference numerals 1 and 2 appear to overlap each other. Three peaks, that is, peaks 1 and 2, and peaks 4 appear, and when viewed from a direction orthogonal to the Y axis, the peaks 1 to 4 appear to be overlapped, so that one dimension about the Y axis is obtained. One peak appears in the histogram. In the next step 128, the histogram is converted into an evaluation function H (a) by the following equation (7), and peaks are cut out from the histogram on the X axis based on this evaluation function.

【0043】[0043]

【数3】 ただし、f(a)はX軸方向の値(特徴量)がaのとき
の画素数、xは特徴量aからの変位である。
(Equation 3) Here, f (a) is the number of pixels when the value (feature value) in the X-axis direction is a, and x is the displacement from the feature value a.

【0044】すなわち、評価関数H(a)の平均値Tを
求め、評価関数H(a)の平均値T以下の範囲(谷、裾
部の存在範囲)を求める。次に、この範囲内のヒストグ
ラムが最小の位置をヒストグラムの谷または裾部とす
る。そして、求められた谷または裾部でヒストグラムを
切り出す。
That is, the average value T of the evaluation function H (a) is obtained, and the range (the existence range of the valleys and the skirts) of the average value T of the evaluation function H (a) is obtained. Next, the minimum position of the histogram within this range is defined as a valley or a skirt of the histogram. Then, a histogram is cut out at the determined valley or foot.

【0045】上記山の切り出しを図6を参照して説明す
ると、実線SIで表わされたヒストグラムから評価関数
H(a)を求めると図の破線で示すようになる。この評
価関数H(a)が負の部分に関しての平均値T以下の範
囲は特徴量がv0〜v1、v2〜v3の範囲である。こ
の範囲内のヒストグラムの度数が最小の位置は、範囲v
0〜v1ではav0=v0、範囲v2〜v3ではav1
であり、av0が裾部として、av2が谷として各々求
められ、この位置でヒストグラムの切り出しを行う。
The cut-out of the mountain will be described with reference to FIG. 6. When the evaluation function H (a) is obtained from the histogram represented by the solid line SI, the result is as shown by the broken line in the figure. The range in which the evaluation function H (a) is equal to or less than the average value T for the negative part is a range in which the feature amounts are v0 to v1 and v2 to v3. The position where the frequency of the histogram within this range is the minimum is the range v
Av0 = v0 for 0 to v1, av1 for the range v2 to v3
Av0 is obtained as a skirt, and av2 is obtained as a valley. A histogram is cut out at this position.

【0046】ステップ130ではX軸についてのヒスト
グラムの山の切り出しと同様の方法でY軸についてのヒ
ストグラムの山の切り出しを行う。次のステップ132
では、2次元ヒストグラム上で上記のように切り出され
たX軸、Y軸についての1次元ヒストグラムの山が重な
る領域を求め、色相値及び彩度値についての2次元ヒス
トグラムから山の切り出しを行う。図4(1)の領域E
1は上記のようにして切り出した山の一例を示すもので
ある。
In step 130, the peak of the histogram on the Y axis is cut out in the same manner as the peak of the histogram on the X axis. Next step 132
Then, a region where the peaks of the one-dimensional histogram on the X-axis and the Y-axis cut out as described above are overlapped on the two-dimensional histogram is obtained, and the peak is cut out from the two-dimensional histogram on the hue value and the saturation value. Region E in FIG. 4 (1)
Reference numeral 1 denotes an example of a mountain cut out as described above.

【0047】次のステップ134では、2次元ヒストグ
ラムから切り出された山が単峰か否か判断し、単峰でな
い場合は2次元ヒストグラムから切り出された山が単峰
になるまでステップ124〜ステップ134を繰り返
す。図4(3)の領域E2は、上記のようにして切り出
された単峰の山の一例を示すものである。
In the next step 134, it is determined whether or not the mountain cut out from the two-dimensional histogram is a single peak. If not, steps 124 to 134 are performed until the mountain cut out from the two-dimensional histogram becomes a single peak. repeat. The area E2 in FIG. 4 (3) shows an example of a single-peak mountain cut out as described above.

【0048】次のステップ136では、切り出された単
峰の山を識別するためのラベルを付ける処理(ラベリン
グ)を行い、ステップ138ではラベリングされた山を
マスクしてステップ120へ戻る。そして、上記のステ
ップを繰り返して色相値及び彩度値についての2次元ヒ
ストグラムの全領域を単峰の山に分割する。
In the next step 136, a process (labeling) for attaching a label to identify the cut-out single-peak mountain is performed. In step 138, the labeled mountain is masked, and the process returns to step 120. Then, the above steps are repeated to divide the entire area of the two-dimensional histogram for the hue value and the saturation value into a single peak.

【0049】図7は図2のステップ108の詳細を示す
もので、ステップ140では、上記のようにして分割さ
れた単峰の山のX軸方向の範囲XR(図4(3))及び
Y軸方向の範囲YR(図4(3))を単峰の山毎に各々
求め、原画像の各画素について色相値及び彩度値がこれ
らの範囲に属しているかを判断して画素のクラスタリン
グを行うと共に、範囲XR、YRで囲まれた範囲に属し
ている画素を集め、集めた画素が原画像上で1つの領域
となるように原画像を分割する。また、分割された領域
にナンバリングする。
FIG. 7 shows the details of step 108 in FIG. 2. In step 140, the X-axis range XR (FIG. 4 (3)) and Y The axial range YR (FIG. 4 (3)) is obtained for each single peak, and it is determined whether the hue value and the saturation value of each pixel of the original image belong to these ranges, and the pixel clustering is performed. At the same time, pixels belonging to the range surrounded by the ranges XR and YR are collected, and the original image is divided so that the collected pixels form one region on the original image. Numbering is performed on the divided areas.

【0050】図4(2)は、原画像を分割した例を示す
もので符号1〜4を付した各領域の画素は、図4(1)
の、符号1〜4を付した単峰の山に含まれる画素に対応
している。図4(1)で同じ単峰の山に属している画素
が図4(2)では異る領域に分割されているが、これは
図4(1)では単峰の山の色相値範囲及び彩度値範囲を
持つ画素であるが、図4(2)では領域が分かれている
からである。
FIG. 4 (2) shows an example in which the original image is divided, and the pixels in the respective areas denoted by reference numerals 1 to 4 are shown in FIG.
Correspond to the pixels included in the single peaks denoted by reference numerals 1 to 4. In FIG. 4 (1), pixels belonging to the same single-peak mountain are divided into different regions in FIG. 4 (2). This is because in FIG. Although the pixel has a saturation value range, the region is divided in FIG. 4B.

【0051】次のステップ142では、分割された領域
の面積を判断することにより微小領域を除去し、ナンバ
リングをし直す。次のステップ144では、領域の境界
画素をすべて削除してひと皮分取り除く収縮処理と、収
縮処理とは逆に境界画素を背景画素方向へ増殖させてひ
と皮分太らせる膨張処理とを行って大領域と繁がってい
る小領域を大領域から分離する。次のステップ146で
はステップ142と同様に微小領域を除去してリナンバ
リングを行い、ステップ148で弱い結合をしている領
域同士を分離するために、上記と同様の収縮、膨張処理
を行い、ステップ150において上記と同様に微小領域
の除去とリナンバリングを行う。
In the next step 142, the small area is removed by judging the area of the divided area, and the numbering is performed again. In the next step 144, a large area is obtained by performing a contraction process of deleting all the boundary pixels of the region and removing it by one skin, and a dilation process of expanding the boundary pixels in the direction of the background pixel and increasing the thickness of one skin in contrast to the contraction process. Are separated from the large area. In the next step 146, a small area is removed and renumbering is performed in the same manner as in step 142, and in step 148, the same contraction and expansion processing as described above is performed to separate the weakly coupled areas. At 150, removal and renumbering of the minute area are performed in the same manner as described above.

【0052】図8はステップ110の詳細を示すもの
で、ステップ162において原画像に対応するカラーネ
ガフィルム10に記録されたカメラ情報を取り込む。こ
のカメラ情報は、上記説明したように主要画像サイズ情
報または主要画像存在領域情報等があり、本実施例では
主要画像(顔)のサイズ情報を用いている。このため、
顔のサイズを特定するための値、すなわち、上記の顔の
長さ、撮影レンズの焦点距離等を用いて上記に示した
(1)式に従って顔のサイズを演算する。なお、この顔
のサイズには、顔の長径、短径、長径及び短径の平均
値、周囲長等を用いることができる。また、人物のサイ
ズの場合はそれより顔のサイズを推定する。
FIG. 8 shows the details of step 110. In step 162, the camera information recorded on the color negative film 10 corresponding to the original image is fetched. The camera information includes main image size information or main image existence area information as described above, and in this embodiment, the size information of the main image (face) is used. For this reason,
Using the value for specifying the face size, that is, the length of the face, the focal length of the photographing lens, and the like, the face size is calculated according to the above equation (1). As the size of the face, the major axis, minor axis, average value of major axis and minor axis, peripheral length, and the like can be used. In the case of the size of a person, the size of the face is estimated from that.

【0053】顔のサイズを演算した後、ステップ163
において、ステップ108、すなわち図7のルーチンで
抽出された領域の中から1つの領域を注目領域として順
に選択し、この注目領域の水平フィレ径および垂直フィ
レ径を演算し、注目領域の画像サイズを導出する。な
お、注目領域の最大長及び最大長垂直幅から注目領域の
画像サイズを求めてもよい。
After calculating the face size, step 163
In step 108, one of the regions extracted in the routine of FIG. 7 is sequentially selected as a region of interest, the horizontal fillet diameter and the vertical fillet diameter of the region of interest are calculated, and the image size of the region of interest is reduced. Derive. The image size of the attention area may be obtained from the maximum length and the maximum vertical length of the attention area.

【0054】ステップ164では、導出された注目領域
の画像サイズと上記式(1)に基づいて演算された顔の
サイズとを比較する。
In step 164, the image size of the derived area of interest is compared with the face size calculated based on the above equation (1).

【0055】そして、ステップ166では抽出された全
領域について比較が終了したか否か判断し、終了してい
ないときには上記画像サイズの比較を繰り返す。全ての
画像サイズの比較が終了するとステップ168において
最も一致度の高い領域を顔の画像領域と推定し、推定さ
れた領域のR、G、B測光データを適正露光量計算回路
40に出力する。なお、このとき主要画像存在領域情報
を用いて、画像サイズを比較する範囲を設定してもよ
い。このようにすることによって画像サイズを比較する
処理時間を短縮することができる。
In step 166, it is determined whether or not the comparison has been completed for all the extracted regions. If the comparison has not been completed, the comparison of the image sizes is repeated. When the comparison of all image sizes is completed, in step 168, the area having the highest matching degree is estimated as the face image area, and the R, G, and B photometric data of the estimated area is output to the appropriate exposure amount calculation circuit 40. At this time, a range for comparing image sizes may be set using the main image existence area information. By doing so, the processing time for comparing image sizes can be reduced.

【0056】適正露光量計算回路40は、顔抽出回路3
6で上記のように抽出された顔領域のR、G、B測光デ
ータと平均濃度演算回路38で演算された1コマの画面
平均濃度Di (i=R、G、Bのうちのいずれか)とを
用いて以下の式に従って適正露光量Ei を演算し、ドラ
イバ42に出力する。ドライバ42は適正露光量Ei
ら露光コントロール値を演算して調光フイルタ16を制
御する。
The proper exposure amount calculation circuit 40 includes a face extraction circuit 3
6, the R, G, and B photometric data of the face area extracted as described above and the screen average density D i (i = R, G, or B) of one frame calculated by the average density calculation circuit 38 ) and using the calculated the proper exposure amount E i according to the following equation, and outputs to the driver 42. The driver 42 controls the light adjustment filter 16 calculates an exposure control value from the appropriate exposure amount E i.

【0057】 logi =LMi ・CSi ・(DNi −Di ) +PBi +LBi +MBi +NBi +K1 +K2 ……(8) ただし、各記号は次のものを表す。L og E i = LM i · CS i · (DN i -D i ) + PB i + LB i + MB i + NB i + K 1 + K 2 (8) where each symbol represents the following.

【0058】LM:倍率スロープ係数であり、カラーネ
ガフィルムの種類とプリントサイズから決まる引伸倍率
に応じて予め設定されている。
LM: Magnification slope coefficient, which is set in advance according to the enlargement magnification determined by the type of the color negative film and the print size.

【0059】CS:カラーネガフィルムの種類毎に用意
されたカラースロープ係数でアンダー露光用とオーバー
露光用とがあり、プリントすべきコマの平均濃度が標準
ネガ濃度値に対してアンダーかオーバーかを判定してア
ンダー露光用またはオーバー露光用のいずれかが選択さ
れる。
CS: There are color slope coefficients prepared for each type of color negative film for underexposure and overexposure, and it is determined whether the average density of the frame to be printed is under or over the standard negative density value. Then, either under exposure or over exposure is selected.

【0060】DN:標準ネガ濃度値 D :プリントコマの平均濃度値。DN: standard negative density value D: average density value of print frame

【0061】PB:標準カラーペーパーに対する補正バ
ランス値であり、カラーペーパーの種類に応じて決定さ
れている LB:標準焼付レンズに対する補正レンズバランス値で
あり、焼付レンズの種類に応じて決定されている MB:プリント光源の変動やペーパー現像性能の変化に
対する補正値(マスターバランス値) NB:カラーネガフィルムの特性によって定められるネ
ガバランス(カラーバランス)値。
PB: Correction balance value for standard color paper, determined according to type of color paper LB: Correction lens balance value for standard printing lens, determined according to type of printing lens MB: a correction value (master balance value) for a change in print light source or a change in paper development performance NB: a negative balance (color balance) value determined by the characteristics of a color negative film.

【0062】K2 :カラー補正量 K1 :以下の式で表される濃度補正量K 2 : color correction amount K 1 : density correction amount represented by the following equation

【0063】[0063]

【数4】 ここで、Ka 、Kb は定数であり、FDは顔領域平均濃
度である。
(Equation 4) Here, K a, K b are constants, FD is the face region average density.

【0064】また、上記(8)式の濃度補正量K1 をフ
ィルム検定装置によって求められた補正値とし、カラー
補正量K2 を次のように顔領域平均濃度を用いて表して
もよい。
[0064] Further, as the correction value determined density correction amount K 1 in equation (8) by the film detecting device may represent a color correction amount K 2 using the face region average density as follows.

【0065】[0065]

【数5】 ただし、Kc は定数である。(Equation 5) Here, K c is a constant.

【0066】更に、上記(8)式の濃度補正量K1 、カ
ラー補正量K2 をフィルム検定装置によって求められた
補正量とし、(8)式のプリントコマの平均濃度Di
顔領域の平均濃度FDi 置きかえて露出量を求めてもよ
い。
[0066] Furthermore, the density correction amount K 1 in equation (8), the correction amount determined by the color correction amount K 2 film test device, the average density D i of the face area of the print frame in formula (8) may be obtained exposure amount is replaced average density FD i.

【0067】このように、本実施例では、注目領域の画
像サイズとカメラ情報から求めた顔のサイズとを比較す
ることにより、顔画像領域を判断しているため、全ての
画像データから顔の領域を推定することなく、短時間で
適正な顔の領域を推定することができる。また、顔の存
在や抽出可能性がカメラ情報より得ることができるた
め、顔の存在性が低い領域に費やす無駄な抽出時間や誤
りを無くすことが可能になる。
As described above, in this embodiment, the face image area is determined by comparing the image size of the attention area with the size of the face obtained from the camera information. An appropriate face area can be estimated in a short time without estimating the area. In addition, since the presence and possibility of extraction of the face can be obtained from the camera information, it is possible to eliminate unnecessary extraction time and errors spent in an area where the presence of the face is low.

【0068】なお、ステップ108で抽出された候補領
域の各々について注目領域の形状及び色情報と注目領域
の周辺に位置する領域である近傍領域の形状及び色情報
とから注目領域が顔か否かを判断してもよい。例えば、
注目領域の周辺に注目領域と同一色相値、及び彩度値ま
たは近似した色相値及び彩度値を持ち、かつ、画像サイ
ズが注目領域の画像サイズの所定の範囲の領域が抽出さ
れているか否か判断することによって、判断の対象とな
る範囲を人物の身体が存在する範囲とすることができ
る。人物の体は、通常左右軸対象でかつ上下方向に非対
象であると共に顔に連続しているので、注目領域と連続
する領域が存在しかつその領域が左右軸対象でかつ上下
非対象かを判断することにより人物の体に対応する領域
が存在するか否かを判断することができる。ここで、頭
部は顔と隣接し、顔と統合したとき略惰円形になり、通
常頭部には帽子、頭髪等が存在するから色相または彩度
が顔と相異している。従って、注目領域に隣接する領域
についてこの領域の周囲長と、注目領域との隣接部の境
界長との比が30%以上であるか、注目領域と隣接する
領域とを統合したときの円形度が向上するか、注目領域
の色相値と注目領域に隣接する領域の色相値との色相差
に対する彩度値差または明度値差が大きいか、注目領域
に隣接する領域の彩度値または明度値が注目領域に比較
して小さいかを判断することにより頭部が存在するか否
かを判断することができる。
It should be noted that, for each of the candidate regions extracted in step 108, the shape and color information of the region of interest and the shape and color information of the neighboring region located around the region of interest determine whether the region of interest is a face. May be determined. For example,
Whether an area having the same hue value and saturation value or a similar hue value and saturation value as the attention area and an image size within a predetermined range of the image area of the attention area is extracted around the attention area. By making the determination, the range to be determined can be the range in which the body of the person exists. Since the body of a person is usually left-right axis symmetric and non-target in the vertical direction and continuous to the face, there is an area that is continuous with the attention area, and whether the area is left-right axis-target and vertical non-target By making the determination, it can be determined whether or not an area corresponding to the body of the person exists. Here, the head is adjacent to the face and forms a substantially circular shape when integrated with the face. Since the head usually has a hat, hair, and the like, the hue or saturation is different from the face. Therefore, for a region adjacent to the region of interest, the ratio between the perimeter of this region and the boundary length of the portion adjacent to the region of interest is 30% or more, or the circularity when the region adjacent to the region of interest is integrated. The saturation value or the brightness value difference between the hue value of the region of interest and the hue value of the region adjacent to the region of interest is large, or the saturation value or brightness value of the region adjacent to the region of interest Is smaller than the attention area, it is possible to determine whether or not the head is present.

【0069】また、画像サイズが或る範囲で一致する領
域が顔か否かを判断してもよい。例えば、成人、幼児、
背丈等のバラツキや顔の向きによって顔の領域及び存在
範囲が分散する。このため、複数の標準的な顔の画像、
複数の標準的な体の画像、複数の標準的な頭部の画像を
予め記憶しておいて、注目領域とこれらの標準的な画像
とを比較して顔か否かを判断することができる。
Further, it may be determined whether or not an area where the image size matches in a certain range is a face. For example, adults, infants,
The area of the face and the range of the face are dispersed depending on the variation in height and the direction of the face. For this reason, several standard face images,
A plurality of standard body images and a plurality of standard head images are stored in advance, and the attention area can be compared with these standard images to determine whether the image is a face. .

【0070】次に、本発明の第2実施例を説明する。本
実施例は、読み取ったカメラ情報から得られるフォーカ
ス点に基づいて測光エリアを定め、その測光エリアを測
光し、顔抽出処理をするものである。図10に示される
ように、読み取った情報から得られるフォーカス点90
の周辺である測光エリア92が定められる。
Next, a second embodiment of the present invention will be described. In the present embodiment, a photometric area is determined based on a focus point obtained from read camera information, the photometric area is measured, and face extraction processing is performed. As shown in FIG. 10, a focus point 90 obtained from the read information
Is defined as a photometric area 92 which is the periphery of.

【0071】図9は顔抽出回路36による顔抽出ルーチ
ンを示すものであり、ステップ170においてカメラ情
報を読み取る。このカメラ情報は上記主要画像サイズ情
報に加えて、主要画像存在領域情報を利用することがで
きる。例えば、本実施例では多点測距装置におけるフォ
ーカス点またはそれを含む顔の存在領域情報を用いる。
なお、フォーカス点は1点であっても複数点であっても
よいのは当然である。このカメラ情報に基づいてステッ
プ172において、測光エリア92を設定する。この測
光エリア92の設定はフォーカス点の情報を用い、フォ
ーカス点90を中心とした周囲の所定領域を測光エリア
92となるようにする。ステップ174では、測光エリ
ア92の3色測光データのノイズ除去(スムージング)
を行う。次のステップ176では上記の(3)〜(5)
式によってR、G、B3色測光データをH(色相値)、
L(明度値)、S(彩度値)に変換する。
FIG. 9 shows a face extraction routine by the face extraction circuit 36. In step 170, camera information is read. This camera information can use main image existence area information in addition to the main image size information. For example, in this embodiment, the focus point in the multi-point distance measuring device or the existence area information of the face including the focus point is used.
It should be noted that the number of focus points may be one or more. In step 172, the photometric area 92 is set based on the camera information. The setting of the photometric area 92 uses the information of the focus point, and a predetermined area around the focus point 90 is set as the photometric area 92. In step 174, noise removal (smoothing) of the three-color photometric data in the photometric area 92 is performed.
I do. In the next step 176, the above (3) to (5)
The R, G, and B three-color photometric data are represented by H (hue value),
It is converted into L (brightness value) and S (saturation value).

【0072】ステップ176では、各々直交する色相値
軸、彩度値軸及び画素数軸から成る座標系を用いて色相
値及び彩度値についての2次元ヒストグラムを求め、次
のステップ178において、求めた2次元ヒストグラム
を山毎に分割(2次元ヒストグラムのクラスタリング)
を行う。次のステップ180ではクラスタリングされた
2次元ヒストグラムの山に基づいて多数の画素のクラス
タリングを行い、ステップ182において、このクラス
タリングに基づいて画面を分割し、分割された領域から
人物の顔の候補となる領域を抽出する。次のステップ1
84では、上記第1実施例と同様に抽出された領域の画
像サイズとカメラ情報から得られる顔のサイズとを比較
し、一致度の最も高い領域を顔の領域と推定し、顔とし
て推定された領域のR、G、B3色測光データを出力す
る。そして、ステップ186において全コマの焼付けが
終了したか否か判断し、焼付終了と判断されたときにこ
のルーチンを終了する。
In step 176, a two-dimensional histogram of the hue value and the saturation value is obtained by using a coordinate system composed of the hue value axis, the saturation value axis, and the pixel number axis which are orthogonal to each other. Divided two-dimensional histogram by mountain (clustering of two-dimensional histogram)
I do. In the next step 180, clustering of a large number of pixels is performed based on the peaks of the clustered two-dimensional histogram, and in step 182, the screen is divided based on the clustering, and the divided areas are candidates for a person's face. Extract the region. Next Step 1
At 84, the image size of the region extracted in the same manner as in the first embodiment is compared with the size of the face obtained from the camera information, and the region with the highest degree of coincidence is estimated as the region of the face. R, G, and B colorimetric data of the selected area are output. Then, in step 186, it is determined whether or not the printing of all the frames has been completed. When it is determined that the printing has been completed, this routine is terminated.

【0073】上記測光エリア92の大きさ設定は、撮影
装置(カメラ)による撮影倍率に従って変更することが
好ましい。すなわち、撮影倍率によって顔のサイズが変
化するため、予め撮影倍率によって定められた測光エリ
アの大きさを設定するようにしてもよい。また、フォー
カス点90及び測光エリア92の導出には、多点測距方
式のオートフォーカス(AF)装置を備えたカメラによ
ってこれらの情報を記録し、この情報を用いることによ
って容易に行なうことができる。
It is preferable that the size setting of the photometric area 92 be changed according to the photographing magnification of the photographing device (camera). That is, since the size of the face changes depending on the photographing magnification, the size of the photometric area determined in advance by the photographing magnification may be set. The derivation of the focus point 90 and the photometric area 92 can be easily performed by recording such information using a camera equipped with a multi-point ranging autofocus (AF) device and using this information. .

【0074】ここで、顔のサイズが小さい場合には、測
光エリアの変更(縮小)と共に測光点サイズを小さくす
るのが好ましい。例えば投影光学系によって測光するた
めの1画素サイズを小さくすることにより、顔のサイズ
が小さい場合でも、画像を測光するたの適正な画素数に
設定できる。この方法により、小さい人物であっても正
確に顔の画像領域が抽出可能である。また、抽出処理時
間も顔のサイズによっても変わらない効果がある。
Here, when the size of the face is small, it is preferable that the photometric point size be reduced together with the change (reduction) of the photometric area. For example, by reducing the size of one pixel for photometry by the projection optical system, even if the size of the face is small, the number of pixels can be set to an appropriate number for photometry of an image. According to this method, even a small person can accurately extract a face image area. Further, there is an effect that the extraction processing time does not change depending on the face size.

【0075】また、上記顔のサイズが画像コマの全領域
に対する比率的に微小である一定値以下であると推定さ
れるならば、領域抽出を中止し、画面全体の情報、すな
わち、平均濃度演算回路38で求めた平均濃度から露光
量を決定するのが好ましい。このようにすることによっ
て、少ない画像情報から露光量を決定することによる色
再現性の劣化を防ぐことができる。一方、顔のサイズが
一定値以上であるなら、測光点を例えば、4点合成して
一度に測光する画素数を増加して顔の抽出処理を行なう
のが好ましい。このようにすることによって、顔の画像
が存在する領域の測光データの演算時間を短縮でき、処
理の短縮化が図れる。
If the size of the face is estimated to be equal to or smaller than a predetermined value which is relatively small relative to the entire area of the image frame, the area extraction is stopped, and information on the entire screen, that is, the average density calculation is performed. It is preferable to determine the exposure amount from the average density obtained by the circuit 38. By doing so, it is possible to prevent color reproducibility from deteriorating due to determining the exposure amount from a small amount of image information. On the other hand, if the face size is equal to or larger than a certain value, it is preferable to perform face extraction processing by increasing the number of pixels to be measured at one time by combining four photometric points, for example. By doing so, the calculation time of the photometric data in the area where the face image exists can be shortened, and the processing can be shortened.

【0076】本実施例では、フォーカス点及び周辺の領
域から注目領域を特定し顔か否かを判断しているため、
適正な顔の領域を特定することができると共に顔の存在
する領域の決定精度が向上する。更に、人物の顔は主に
フォーカス点の周辺に存在するので、撮影時に記録され
たカメラ情報等より顔の存在や抽出可能性が容易に得る
ことができるため、顔の領域を誤り無く特定することが
できると共に、顔の存在性が低い領域に無駄な抽出時間
を費やすことなく、顔の特定が可能になる。なお、上記
顔の領域を決定するには、カラー原画像の全てを測光
後、顔抽出のための演算処理範囲をフォーカス点に基づ
いて定めてもよい。
In this embodiment, since the attention area is specified from the focus point and the surrounding area to determine whether or not the face is a face,
An appropriate face region can be specified, and the accuracy of determining the region where the face exists is improved. Furthermore, since the face of a person mainly exists around the focus point, the presence or the possibility of extraction of the face can be easily obtained from the camera information or the like recorded at the time of shooting, so that the face area is specified without error. In addition to this, the face can be specified without spending unnecessary extraction time in an area where the presence of the face is low. Note that, in order to determine the face area, after the entire color original image is measured, the calculation processing range for face extraction may be determined based on the focus point.

【0077】図11はプリンタまたはプリンタプロセッ
サとは別体の露光量決定装置に本発明を適用した変形例
を示すものである。なお、図11において図1と対応す
る部分には同一符号を付して説明を省略する。また、平
均濃度演算回路38は必ずしも必要ではないが、これに
代えて画面全体のLATDを検出する積算透過濃度検出
回路を用いてもよい。
FIG. 11 shows a modification in which the present invention is applied to an exposure amount determining apparatus separate from a printer or a printer processor. In FIG. 11, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted. Although the average density calculation circuit 38 is not always necessary, an integrated transmission density detection circuit for detecting LATD of the entire screen may be used instead.

【0078】図12は、図11の顔抽出回路を複数の顔
抽出回路361 、362 ・・・36nで構成し、並列処
理により露光量を演算するものである。顔抽出回路36
1 、362 ・・・36nは図13のタイムチャートに従
って画像を読込み、露光量を演算し、その結果を出力す
る。図13においてt1 は1コマの画像読込み時間、t
2 は1コマの露光量演算時間、t3 は1コマの露光量演
算結果転送時間であり、t2 >>t1 、t3 である。顔
抽出回路361 はt1 時間で1コマの画像を読込み、t
2 時間で露光量を演算し、t3 時間で演算結果を転送す
る。顔抽出回路361 による1コマの画像読込みが終了
すると同時にフィルムが1コマ分送られ顔抽出回路36
2 による1コマり画像読込みが開始され、顔抽出回路3
1 の露光量演算と顔抽出回路362 の画像読込みとが
並列して行われ、以下同様に顔抽出回路363 、364
・・・36nによって並列処理される。
FIG. 12 shows a configuration in which the face extraction circuit of FIG. 11 is composed of a plurality of face extraction circuits 36 1 , 36 2 ... 36n, and the exposure amount is calculated by parallel processing. Face extraction circuit 36
1, 36 2 ··· 36n reads an image according to the time chart of FIG. 13, calculates the exposure amount, and outputs the result. In FIG. 13, t 1 is the image reading time of one frame, t
2 one frame of an exposure amount calculating time, t 3 is the one frame of an exposure amount computation result transfer time is t 2 >> t 1, t 3. The face extraction circuit 36 1 reads an image of one frame at time t 1 ,
It calculates the exposure amount in 2 hours, and transfers the calculation result t 3 hours. At the same time when the image reading of one frame by the face extraction circuit 36 1 is completed, the film is fed by one frame and the face extraction circuit 36
2 starts reading a single frame image, and the face extraction circuit 3
6 1 of the image reading of the exposure operation and the face extraction circuit 36 2 is performed in parallel, and so the face extraction circuit 36 3, 36 4
.. 36n are processed in parallel.

【0079】mxnのコマを並列処理するに要する時間
Tpは、 Tp=m(t1 +t2 +t3 )+(n−1)t1 である。一方、並列処理を行わない場合の処理時間Ts
は Ts=m・n(t1 +t2 +t3 ) である。従って、
The time Tp required to process m × n frames in parallel is Tp = m (t 1 + t 2 + t 3 ) + (n−1) t 1 . On the other hand, the processing time Ts when the parallel processing is not performed
Is Ts = mn (t 1 + t 2 + t 3 ). Therefore,

【0080】[0080]

【数6】 倍高速化が可能である。(Equation 6) Double the speed is possible.

【0081】なお、この並列処理装置は図1のプリンタ
にも適用できる。本発明は写真焼付装置の露光量決定以
外に、ディジタルカラープリンタの露光量決定、複写機
の複写条件決定、カメラの露出量決定、CRT画面の表
示条件決定、磁気画像データからハードコピーを作成す
るときの光量決定にも適用することができる。
The parallel processing device can be applied to the printer shown in FIG. According to the present invention, in addition to the determination of the exposure of the photographic printing apparatus, the determination of the exposure of the digital color printer, the determination of the copying conditions of the copying machine, the determination of the exposure of the camera, the determination of the display conditions of the CRT screen, and the creation of a hard copy from the magnetic image data It can also be applied to the determination of the amount of light at the time.

【0082】また、本発明は、例えば、画像が表示され
たモニター上で主要画像領域の位置をライトペンやマウ
ス等の指示装置により入力指示する高速性を必要としな
いものや高い品質を要求するものに、この指示装置の代
わりに上記説明したカメラ情報等を用いて主要画像を抽
出するようにすることができる。
The present invention also requires, for example, a high-quality one that does not require a high-speed operation for instructing the position of a main image area on a monitor on which an image is displayed by a pointing device such as a light pen or a mouse. Alternatively, the main image can be extracted by using the above-described camera information or the like instead of the pointing device.

【0083】[0083]

【発明の効果】以上説明したように本発明によれば、カ
ラー原画像に関連した情報に基づいて主要画像を抽出す
ることができるため、主要画像の抽出に要する演算時間
を短縮できると共に主要画像の領域に応じてカラー原画
像を測光するときの測光点サイズを適正にすることがで
き、得られる画像の色再現性を良好にすることができ
る、という効果が得られる。
As described above, according to the present invention, the main image can be extracted based on the information related to the color original image, so that the operation time required for extracting the main image can be reduced and the main image can be extracted. It is possible to obtain the effect that the photometric point size when photometrically measuring the color original image can be made appropriate according to the region, and the color reproducibility of the obtained image can be improved.

【0084】また、カラー原画像に関連した情報に基づ
いて主要画像が存在する領域を特定することができるた
め、主要画像の決定精度が向上する、という効果が得ら
れる。
Further, since the area where the main image exists can be specified based on the information related to the color original image, the effect of improving the accuracy of determining the main image is obtained.

【0085】更に、主要画像の存在や抽出可能性がカラ
ー原画像に関連した情報より得ることができるため、主
要画像領域の存在性が低い領域に費やす無駄な抽出時間
を短縮することおよび誤った画像の抽出を無くすことが
できる、という効果が得られる。
Further, since the existence and the possibility of extraction of the main image can be obtained from the information related to the color original image, it is possible to reduce the unnecessary extraction time spent in the area where the existence of the main image area is low, The effect of eliminating image extraction can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例のプリンタを示す概略図であ
る。
FIG. 1 is a schematic view showing a printer according to an embodiment of the present invention.

【図2】顔抽出回路の顔抽出ルーチンを示す流れ図であ
る。
FIG. 2 is a flowchart showing a face extraction routine of a face extraction circuit.

【図3】色座標を示す線図である。FIG. 3 is a diagram showing color coordinates.

【図4】(1)は色相値及び彩度値についての2次元ヒ
ストグラムを示す線図である。 (2)は原画像を分割した状態を示す線図である。 (3)は2次元ヒストグラムから単峰の山を切り出した
状態を示す線図である。
FIG. 4A is a diagram illustrating a two-dimensional histogram of hue values and saturation values. (2) is a diagram showing a state in which the original image is divided. (3) is a diagram showing a state where a single peak is cut out from a two-dimensional histogram.

【図5】図2のステップ106の詳細を示す流れ図であ
る。
FIG. 5 is a flowchart showing details of step 106 in FIG. 2;

【図6】ヒストグラムと評価関数を示す線図である。FIG. 6 is a diagram showing a histogram and an evaluation function.

【図7】図2のステップ108の詳細を示す流れ図であ
る。
FIG. 7 is a flowchart showing details of step 108 in FIG. 2;

【図8】図2のステップ110の詳細を示す流れ図であ
る。
FIG. 8 is a flowchart showing details of step 110 in FIG. 2;

【図9】第2実施例における顔抽出回路の顔抽出ルーチ
ンを示す流れ図である。
FIG. 9 is a flowchart showing a face extraction routine of a face extraction circuit in a second embodiment.

【図10】画像コマのフォーカス点周辺の測光エリアを
示す線図である。
FIG. 10 is a diagram showing a photometric area around a focus point of an image frame.

【図11】本発明を適用した露光量演算装置の概略図で
ある。
FIG. 11 is a schematic diagram of an exposure calculation device to which the present invention is applied.

【図12】複数の顔抽出回路によって並列処理を行う露
光量演算装置の概略図である。
FIG. 12 is a schematic diagram of an exposure calculation device that performs parallel processing by a plurality of face extraction circuits.

【図13】並列処理のタイムチャートを示す線図であ
る。
FIG. 13 is a diagram showing a time chart of parallel processing.

【符号の説明】[Explanation of symbols]

28 CCDイメージセンサ 30 増幅器 36 顔抽出回路 50 磁気ヘッド 28 CCD image sensor 30 Amplifier 36 Face extraction circuit 50 Magnetic head

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 カラー原画像に関連した情報を読み取る
と共に前記カラー原画像を多数画素に分割して各画素を
赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて色相値のヒストグ
ラムを求め、求めたヒストグラムを山毎に分割し、 カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、 分割された領域から前記読み取ったカラー原画像に関連
した情報に最も適合する領域を特徴画像領域として選択
し、 前記特徴画像領域の画像データに基づいて複写材料への
露光量を決定する、 露光量決定方法。
1. A method of reading information relating to a color original image, dividing the color original image into a large number of pixels, decomposing each pixel into three colors of red light, green light and blue light and performing photometry. A histogram of hue values is obtained based on the obtained data, and the obtained histogram is divided into hills. And divides the color original image for each group, and selects, from the divided areas, an area most suitable for the information related to the read color original image as a characteristic image area, An exposure amount determining method for determining an exposure amount to a copy material based on the image data of the image.
【請求項2】 カラー原画像に関連した情報を読み取る
と共に前記カラー原画像を多数画素に分割して各画素を
赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて色相値のヒストグ
ラムまたは色相値及び彩度値についての2次元ヒストグ
ラムを求め、求めた2次元ヒストグラムを山毎に分割
し、 カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、 分割された領域から前記読み取ったカラー原画像に関連
した情報に最も適合する領域を特徴画像領域として選択
し、 前記特徴画像領域の画像データに基づいて複写材料への
露光量を決定する、 露光量決定方法。
2. A method of reading information relating to a color original image, dividing the color original image into a large number of pixels, decomposing each pixel into three colors of red light, green light and blue light, and performing photometry. A histogram of hue values or a two-dimensional histogram of hue values and saturation values is obtained based on the obtained data, and the obtained two-dimensional histogram is divided into hills. The pixels are divided into groups corresponding to the divided mountains by judging whether they belong to each other, and the color original image is divided for each group, and the most suitable information relating to the read color original image is read from the divided area. An exposure amount determining method for determining an exposure amount for a copy material based on image data of the characteristic image region.
【請求項3】 前記カラー原画像に関連した情報は、主
要画像のサイズ情報または主要画像のサイズを求めるた
めのサイズ情報である請求項1または2に記載の露光量
決定方法。
3. The exposure determining method according to claim 1, wherein the information related to the color original image is size information of a main image or size information for obtaining a size of the main image.
【請求項4】 前記カラー原画像に関連した情報は、主
要画像が存在する画像領域を表す領域情報である請求項
1または2に記載の露光量決定方法。
4. The exposure determining method according to claim 1, wherein the information related to the color original image is area information indicating an image area where a main image exists.
【請求項5】 前記カラー原画像に関連した情報は、合
焦された画像のカラー原画像における合焦位置を表す情
報である請求項1または2に記載の露光量決定方法。
5. The exposure determining method according to claim 1, wherein the information related to the color original image is information indicating a focus position of the focused image in the color original image.
【請求項6】 前記カラー原画像に関連した情報は、主
要画像のサイズを表すサイズ情報及び主要画像が存在す
る画像領域を表す領域情報の少なくとも一方が撮影時に
撮影装置によって記録または記憶されたカメラ情報であ
る請求項1または2に記載の露光量決定方法。
6. A camera in which at least one of size information indicating a size of a main image and area information indicating an image area where the main image exists is recorded or stored by an imaging device at the time of shooting. 3. The exposure amount determining method according to claim 1, which is information.
JP26223291A 1991-10-09 1991-10-09 Exposure determination method Expired - Fee Related JP2642262B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP26223291A JP2642262B2 (en) 1991-10-09 1991-10-09 Exposure determination method
US07/958,163 US5463470A (en) 1991-10-09 1992-10-08 Methods of collecting photometric image data and determining light exposure by extracting feature image data from an original image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26223291A JP2642262B2 (en) 1991-10-09 1991-10-09 Exposure determination method

Publications (2)

Publication Number Publication Date
JPH05100328A JPH05100328A (en) 1993-04-23
JP2642262B2 true JP2642262B2 (en) 1997-08-20

Family

ID=17372915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26223291A Expired - Fee Related JP2642262B2 (en) 1991-10-09 1991-10-09 Exposure determination method

Country Status (1)

Country Link
JP (1) JP2642262B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3461626B2 (en) * 1995-07-28 2003-10-27 シャープ株式会社 Specific image region extraction method and specific image region extraction device
US7508550B2 (en) 2004-06-17 2009-03-24 Fujifilm Corporation Image correcting apparatus and method, and image correcting program, and look-up table creating apparatus and method, and look-up table creating program
US7663788B2 (en) 2004-06-29 2010-02-16 Fujifilm Corporation Image correcting apparatus and method, and image correction program
JP4800724B2 (en) 2005-09-29 2011-10-26 富士フイルム株式会社 Person image correction apparatus, person image correction method, and person image correction program
JP4654874B2 (en) * 2005-10-17 2011-03-23 株式会社ニコン Subject analysis device, imaging device, and image processing program

Also Published As

Publication number Publication date
JPH05100328A (en) 1993-04-23

Similar Documents

Publication Publication Date Title
US5463470A (en) Methods of collecting photometric image data and determining light exposure by extracting feature image data from an original image
US5497431A (en) Method of extracting characteristic image data and color data conversion device for image processing apparatus
US6023524A (en) Method for determining amount of exposure
JP3907816B2 (en) Image processing method
US7164496B2 (en) Image correction apparatus
JP2695067B2 (en) Method of extracting data of human face and method of determining exposure amount
JP2638691B2 (en) Exposure determination method
JP3576025B2 (en) Main subject extraction method and apparatus
JP2642262B2 (en) Exposure determination method
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP2848749B2 (en) Feature image data extraction method
JP2638693B2 (en) Feature image data extraction method
JP2638702B2 (en) Feature image data extraction method
JPH09281605A (en) Image recorder
JP3575976B2 (en) Main subject extraction method
JP2695074B2 (en) Photometric image data collection method and exposure amount determination method
JP2638692B2 (en) Method of extracting data of human face and method of determining exposure amount
JP2763221B2 (en) How to extract human face data
JP2923401B2 (en) Exposure determination method
JP2638701B2 (en) Feature image data extraction method
JP2848750B2 (en) Exposure determination method
JP3386373B2 (en) Method for determining similarity of captured images, image processing method and image processing apparatus using the same
JP4285868B2 (en) Main subject extraction method, image processing apparatus, and imaging apparatus
JP2001076149A (en) Method and device for extracting main object
US7099048B2 (en) Image reproducing method and image reproducing apparatus

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees