JP3506958B2 - Image processing method, image processing apparatus, and recording medium - Google Patents

Image processing method, image processing apparatus, and recording medium

Info

Publication number
JP3506958B2
JP3506958B2 JP20435899A JP20435899A JP3506958B2 JP 3506958 B2 JP3506958 B2 JP 3506958B2 JP 20435899 A JP20435899 A JP 20435899A JP 20435899 A JP20435899 A JP 20435899A JP 3506958 B2 JP3506958 B2 JP 3506958B2
Authority
JP
Japan
Prior art keywords
area
candidate
image
face
main part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP20435899A
Other languages
Japanese (ja)
Other versions
JP2000149018A (en
Inventor
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP20435899A priority Critical patent/JP3506958B2/en
Publication of JP2000149018A publication Critical patent/JP2000149018A/en
Application granted granted Critical
Publication of JP3506958B2 publication Critical patent/JP3506958B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は画像処理方法、画像
処理装置及び記録媒体に係り、特に、画像中の主要部に
相当する領域と推定される領域を抽出する画像処理方
法、前記画像処理方法を適用可能な画像処理装置、及び
前記画像処理方法をコンピュータで実行させるためのプ
ログラムが記録された記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, an image processing apparatus and a recording medium, and more particularly, to an image processing method for extracting an area estimated to correspond to a main part of an image, and the image processing method. The present invention relates to an image processing apparatus to which the above can be applied, and a recording medium on which a program for causing the computer to execute the image processing method is recorded.

【0002】[0002]

【従来の技術】人物写真を観賞するときに最も注目され
る部位は人物の顔であり、例えば写真フィルム等に記録
された原画像を印画紙等の記録材料に露光記録(面露光
或いは走査露光により記録)する場合には、人物の顔の
色及び濃度が適正となるように露光を制御することが望
ましいが、この露光制御を実現するためには原画像中の
人物の顔に相当する領域の色味や濃度を正確に検知する
必要がある。また、画像を読み取ることで得られた画像
データに対し、該画像データが表す画像の画質向上を目
的として開発された種々の画像処理の中には、画像中の
人物の顔に相当する領域又はその一部に対してのみ特定
の画像処理(例えば局所的な濃度補正や赤目修正等)を
施すものがあるが、この処理を行うためには画像中の人
物の顔に相当する領域の位置や大きさを正確に検知する
必要がある。
2. Description of the Related Art The most noticeable part of a person's photograph is a person's face. For example, an original image recorded on a photographic film is exposed and recorded on a recording material such as photographic paper (surface exposure or scanning exposure). It is desirable to control the exposure so that the color and density of the person's face become appropriate when recording the image). However, in order to realize this exposure control, an area corresponding to the person's face in the original image. It is necessary to accurately detect the tint and density of. In addition, with respect to the image data obtained by reading the image, among various image processing developed for the purpose of improving the image quality of the image represented by the image data, there is an area corresponding to the face of a person in the image or There is a method in which specific image processing (for example, local density correction or red-eye correction) is performed only on a part of it. To perform this processing, the position of the area corresponding to the face of the person in the image or It is necessary to detect the size accurately.

【0003】このため、従来より、画像中の人物の顔等
の主要部に相当すると推定される領域を抽出するための
手法が種々提案されている。例えば特開平8-184925号公
報には、画像データに基づいて、画像中に存在する人物
の各部に特有の形状パターン(例えば頭部の輪郭、顔の
輪郭、顔の内部構造、胴体の輪郭等を表す形状パター
ン)の何れか1つを探索し、検出した形状パターンの大
きさ、向き、検出した形状パターンが表す人物の所定部
分と人物の顔との位置関係に応じて、人物の顔に相当す
ると推定される領域を設定すると共に、検出した形状パ
ターンと異なる他の形状パターンを探索し、先に設定し
た領域の、人物の顔としての整合性を求め、人物の顔に
相当すると推定される領域(顔領域)を抽出する顔領域
の抽出方法が開示されている。
For this reason, various methods have been proposed in the past for extracting a region estimated to correspond to a main part such as a person's face in an image. For example, in Japanese Patent Laid-Open No. 8-184925, based on image data, a shape pattern peculiar to each part of a person present in an image (for example, outline of head, outline of face, internal structure of face, outline of body, etc.) Any one of the shape patterns indicating the human face, and the size and orientation of the detected shape pattern, and the face of the person according to the positional relationship between the predetermined part of the person represented by the detected shape pattern and the human face. While setting the area that is estimated to be equivalent, searching for another shape pattern that is different from the detected shape pattern, obtaining the consistency of the previously set area as a human face, and presuming that it corresponds to a human face. There is disclosed a method of extracting a face area for extracting an area (face area) to be extracted.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、現在提
案されている種々の手法は、何れも、画像中の人物の顔
等の主要部に相当する領域を常に精度良く抽出できるも
のではなく、主要部に相当する領域を誤抽出することが
ある。そして、主要部に相当する領域が誤抽出された場
合、抽出結果を利用して行われる露光制御や画像処理に
よる処理結果が不適正なものとなる、という問題があっ
た。
However, none of the various methods currently proposed can always accurately extract a region corresponding to a main part such as a face of a person in an image. The area corresponding to may be erroneously extracted. Then, when the area corresponding to the main part is erroneously extracted, there is a problem that the processing result by the exposure control or the image processing performed by using the extraction result becomes improper.

【0005】例えば逆光の照明条件下でストロボを発光
させて人物を撮影した画像に対し、画像中の高輝度の背
景部分を人物の顔に相当する領域と誤抽出した場合、抽
出された領域の色及び濃度に基づいて記録材料に画像を
露光記録する際の露光量を制御したとすると、記録画像
は、人物の顔に相当する領域が黒く潰れた不適切な画質
になる。また、抽出された領域又はその一部に対しての
み特定の画像処理を行う場合についても、画像中の人物
の顔に相当する領域と異なる領域に対してのみ前記特定
の処理が行われることで、画像データが表す画像の画質
が却って低下することがある。
For example, when a high-luminance background portion in an image is mistakenly extracted as an area corresponding to a person's face in an image in which a strobe is emitted under a backlight condition, the extracted area If the exposure amount when the image is exposed and recorded on the recording material is controlled based on the color and the density, the recorded image has an unsuitable image quality in which a region corresponding to a person's face is blackened. Further, even when the specific image processing is performed only on the extracted area or a part thereof, the specific processing is performed only on the area different from the area corresponding to the face of the person in the image. However, the image quality of the image represented by the image data may deteriorate.

【0006】本発明は上記事実を考慮して成されたもの
で、画像中の主要部に相当すると推定される領域の誤抽
出による影響を低減することができる画像処理方法、画
像処理装置及び記録媒体を得ることが目的である。
The present invention has been made in consideration of the above facts, and an image processing method, an image processing apparatus, and a recording method capable of reducing the influence of erroneous extraction of a region estimated to correspond to a main part in an image. The purpose is to obtain the medium.

【0007】[0007]

【課題を解決するための手段】本願発明者は、画像中の
人物の顔等の主要部に相当すると推定される領域を抽出
する各種の抽出方式の中から任意の抽出方式を選択し、
選択した抽出方式を適用して多数の画像から主要部に相
当する領域を各々抽出させることを、前記抽出方式の処
理条件(例えば主要部か否かの判定の閾値等)を変更し
たり、抽出方式そのものを変更しながら繰り返す実験を
行った。そして、各回の抽出で抽出された領域を比較し
た結果、画像中の主要部に一致又は略一致している抽出
領域は他の抽出領域と重なっており、かつ他の抽出領域
との重なり度合いが大きいことが殆どであることを見い
出し、抽出領域の画像中の主要部に相当する領域として
の確度は、他の抽出領域との重複度合いと強い相関があ
ることに想致した。
The inventor of the present application selects an arbitrary extraction method from various extraction methods for extracting a region estimated to correspond to a main part such as a face of a person in an image,
Applying the selected extraction method to extract each of the regions corresponding to the main part from a large number of images can be performed by changing the processing conditions of the extraction method (for example, a threshold value for determining whether or not the main part), Experiments were repeated while changing the method itself. Then, as a result of comparing the regions extracted in each extraction, the extraction regions that match or substantially match the main part in the image overlap with other extraction regions, and the degree of overlap with other extraction regions is It was found that they were mostly large, and I thought that the accuracy of the extraction region as a region corresponding to the main part in the image has a strong correlation with the degree of overlap with other extraction regions.

【0008】また、各種の抽出方式には、アルゴリズム
の相違により、1回の抽出処理で複数の領域が抽出され
た場合にも各抽出領域に重なりが生じないものと、1回
の抽出処理で複数の領域が抽出された場合に各抽出領域
に重なりが生じる可能性があるものとがある(例えば画
像中のエッジを追跡して主要部に相当する領域を抽出す
るアルゴリズムでは、互いに異なる複数箇所を開始点と
してエッジ追跡を行うと、一部重なっているものの異な
る領域が主要部に相当する領域として抽出されることが
ある)が、後者の抽出方式においても、1回の抽出処理
で複数の領域が抽出され、かつ他の抽出領域と重なりが
生じている抽出領域は、画像中の主要部に一致又は略一
致していることが多く、抽出領域の画像中の主要部に相
当する領域としての確度は、前述のように、他の抽出領
域との重複度合いと強い相関があることが確認された。
[0008] Further, among various extraction methods, even if a plurality of areas are extracted by one extraction process, the extraction areas do not overlap each other due to a difference in algorithm. When multiple areas are extracted, there is a possibility that overlap may occur in each extracted area (for example, in an algorithm that traces edges in an image and extracts an area corresponding to a main part, multiple areas different from each other are extracted. If the edge tracking is performed using as a starting point, different regions that partially overlap may be extracted as regions corresponding to the main part). However, even in the latter extraction method, a plurality of regions can be extracted in one extraction process. The extracted area in which the area is extracted and overlaps with other extracted areas often coincides with or substantially coincides with the main part in the image, and as an area corresponding to the main part in the image of the extracted area. Accuracy, as described above, it was confirmed that there is a degree of overlapping strongly correlated with other extraction region.

【0009】上記に基づき請求項1記載の発明に係る画
像処理方法は、画像データに基づいて、該画像データが
表す画像中の主要部に相当すると推定される候補領域を
抽出し、前記抽出した候補領域のうち、画像上で他の候
補領域と重複している候補領域について、前記他の候補
領域との重複度を求め、他の候補領域と重複している候
補領域に対する前記画像中の主要部に相当する領域とし
ての確度の評価が、他の候補領域と重複していない候補
領域に対する前記評価よりも高くなり、かつ他の候補領
域との重複度が高くなるに従って更に高くなるように、
前記抽出した候補領域に対して前記主要部に相当する領
域としての確度を評価する。
Based on the above, the image processing method according to the invention of claim 1 extracts, based on the image data, a candidate region estimated to correspond to a main part in the image represented by the image data, and extracts the candidate region. Of the candidate regions, for a candidate region that overlaps another candidate region on the image, the degree of overlap with the other candidate region is obtained, and the main region in the image for the candidate region that overlaps the other candidate region is determined. The accuracy of the accuracy as a region corresponding to a part is higher than the evaluation for a candidate region that does not overlap with other candidate regions, and as the degree of overlap with other candidate regions becomes higher, it becomes higher.
The accuracy of the extracted candidate area as an area corresponding to the main part is evaluated.

【0010】請求項1記載の発明では、まず、画像デー
タに基づいて、該画像データが表す画像中の主要部に相
当すると推定される候補領域を抽出する。なお、上記の
抽出によって実際に抽出される候補領域の数は、画像デ
ータが表す画像の内容にも依存するが、本発明では候補
領域が複数抽出されることが望ましい。候補領域が複数
抽出される確率を向上させることは、例えば異なる抽出
方式を各々適用して候補領域の抽出を複数回行ったり、
単一の抽出方式で処理条件を変更しながら候補領域の抽
出を複数回行ったりすることにより実現できる。また、
1回の抽出処理で複数の候補領域が抽出された場合に各
候補領域に重なりが生じる可能性がある抽出方式を適用
する場合には、候補領域の抽出を1回のみ行ってもよ
い。
According to the first aspect of the present invention, first, based on the image data, the candidate area estimated to correspond to the main part in the image represented by the image data is extracted. Although the number of candidate regions actually extracted by the above-mentioned extraction also depends on the content of the image represented by the image data, it is desirable that a plurality of candidate regions be extracted in the present invention. To improve the probability that a plurality of candidate regions will be extracted, for example, different extraction methods are applied to extract candidate regions multiple times,
This can be realized by extracting the candidate area multiple times while changing the processing conditions with a single extraction method. Also,
When applying an extraction method in which a plurality of candidate regions may be extracted in one extraction process and the candidate regions may overlap with each other, the candidate regions may be extracted only once.

【0011】次に、抽出した候補領域のうち、画像上で
他の候補領域と重複している候補領域について、他の候
補領域との重複度を求めている。なお、重複度の演算
は、例えば候補領域が複数抽出され、かつ他の候補領域
と重複している候補領域が存在する場合に行うことがで
きる。
Next, of the extracted candidate areas, the degree of overlap with other candidate areas is calculated for the candidate areas that overlap with other candidate areas on the image. The calculation of the degree of overlap can be performed, for example, when a plurality of candidate areas are extracted and there is a candidate area that overlaps with other candidate areas.

【0012】重複度としては、例えば請求項2に記載し
たように、重複している一対の候補領域の各々の大きさ
を基準にして前記一対の候補領域の距離(一対の候補領
域の各々の重心位置の距離であってもよいし、一対の候
補領域の各々の位置を代表する代表点間の距離であって
もよい)を正規化した値、前記一対の候補領域の各々の
大きさを基準にして重複している領域の面積を正規化し
た値、及び前記一対の候補領域の各々の所定方向に沿っ
た大きさを基準にして重複している領域の所定方向に沿
った大きさを正規化した値の少なくとも1つを用いるこ
とができる。また、上記各値のうちの2つ以上の値の平
均値や加重平均値を用いてもよい。上記のように正規化
した値を用いることで、候補領域の大きさに拘らず候補
領域の重複度を正確に数値化することができる。なお、
互いに重複している一対の候補領域の大きさが異なって
いる場合には、双方の候補領域の大きさを基準にするこ
とで各々求まる一対の値のうち、より小さい重複度を表
す値を重複度として用いることが好ましい。
As the degree of overlap, for example, as described in claim 2, the distance between the pair of candidate regions (the distance between each pair of candidate regions is based on the size of each pair of overlapping candidate regions). It may be the distance of the center of gravity position, or the distance between the representative points representing the positions of the pair of candidate regions), and the size of each of the pair of candidate regions. A value obtained by normalizing the area of the overlapping region based on the reference, and the size of the overlapping region along the predetermined direction based on the size of each of the pair of candidate regions along the predetermined direction are set. At least one of the normalized values can be used. Further, an average value or a weighted average value of two or more values among the above respective values may be used. By using the normalized value as described above, the degree of overlap of the candidate areas can be accurately digitized regardless of the size of the candidate areas. In addition,
If the size of a pair of candidate regions that overlap with each other is different, the value representing the smaller degree of overlap is duplicated among the pair of values obtained by using the sizes of both candidate regions as references. It is preferable to use it as a degree.

【0013】そして請求項1の発明は、他の候補領域と
重複している候補領域に対する画像中の主要部に相当す
る領域としての確度の評価が、他の候補領域と重複して
いない候補領域に対する前記評価よりも高くなり、かつ
他の候補領域との重複度が高くなるに従って更に高くな
るように、抽出した候補領域に対して前記主要部に相当
する領域としての確度を評価する。これにより、抽出し
た候補領域のうち、前述の実験により画像中の主要部に
相当する領域である確度が高いことが確認された候補領
域、すなわち他の候補領域と重複しておりかつ他の候補
領域との重複度が比較的高い候補領域については、画像
中の主要部に相当する領域としての確度の評価が他の候
補領域よりも高くされることになる。
According to the first aspect of the present invention, a candidate region whose accuracy evaluation as a region corresponding to a main part in an image with respect to a candidate region overlapping with another candidate region does not overlap with another candidate region is determined. For the extracted candidate area, and the accuracy as an area corresponding to the main part is evaluated with respect to the extracted candidate area so as to become higher as the degree of overlap with other candidate areas becomes higher. As a result, among the extracted candidate areas, the candidate areas confirmed to have high accuracy by the above-described experiment, which are areas corresponding to the main part in the image, that is, other candidate areas that overlap and are With respect to the candidate area having a relatively high degree of overlap with the area, the evaluation of the accuracy as the area corresponding to the main part in the image is made higher than that of the other candidate areas.

【0014】なお、抽出した候補領域の評価は、例えば
評価の高低を数値で表す評価値を設定することで行うこ
とができる。評価値の設定は、例えば他の候補領域と重
複していない候補領域については評価値を0又は低い値
とし、互いに重複している一対の候補領域については、
重複度が大きくなるに従って値が大きくなるように評価
値を各々設定し、複数の候補領域と重複している候補領
域については、重複している各候補領域毎に重複度に応
じて設定した評価値を積算して設定することで行うこと
ができる。
The extracted candidate areas can be evaluated, for example, by setting an evaluation value that represents the level of the evaluation as a numerical value. The evaluation value is set, for example, by setting the evaluation value to 0 or a low value for a candidate area that does not overlap with other candidate areas, and for a pair of candidate areas that overlap each other,
The evaluation value is set so that the value increases as the degree of overlap increases, and for candidate areas that overlap multiple candidate areas, the evaluation is set according to the degree of overlap for each overlapping candidate area. This can be done by integrating the values and setting.

【0015】上記のように、抽出した候補領域に対して
画像中の主要部に相当する領域としての確度を評価した
結果を利用する後処理としては、例えば請求項3に記載
したように、各候補領域から主要部に相当する領域とし
ての確度の高い候補領域を選択する処理や、請求項4に
記載したように、抽出した候補領域(又は抽出した候補
領域から選択した候補領域)を重み付けする処理等が挙
げられるが、画像中の主要部と推定される領域の誤抽出
により、抽出された候補領域の中に実際には画像中の主
要部でない候補領域が含まれていたとしても、請求項1
の発明に係る評価を行うことにより、後処理において、
前記評価の結果に基づき前記主要部でない候補領域によ
る影響を低減することができる。
As the post-processing utilizing the result of evaluating the accuracy as the area corresponding to the main part in the image with respect to the extracted candidate area as described above, for example, as described in claim 3, A process of selecting a candidate region with high accuracy as a region corresponding to the main part from the candidate region, and weighting the extracted candidate region (or the candidate region selected from the extracted candidate regions) as described in claim 4. Processing, etc., but even if the extracted candidate regions include a candidate region that is not a main part in the image due to erroneous extraction of a region estimated to be the main part in the image, Item 1
By performing the evaluation according to the invention,
It is possible to reduce the influence of the candidate region that is not the main part based on the result of the evaluation.

【0016】例として、主要部に相当する領域としての
確度の高い候補領域を選択する場合には、抽出した候補
領域の中から主要部に相当する領域としての確度の評価
が高い候補領域のみを選択することで、実際には主要部
でない候補領域を除外することができる。また、例えば
抽出した候補領域に対して重み付けを行う場合には、主
要部に相当する領域としての確度の評価が高い候補領域
に高い重みを付し、主要部に相当する領域としての確度
の評価が低い候補領域の対する重みを小さくすること
で、実際には主要部でない候補領域による影響を小さく
することができる。
As an example, when selecting a candidate region having a high accuracy as a region corresponding to the main part, only candidate regions having a high accuracy evaluation as a region corresponding to the main part are selected from the extracted candidate regions. By selecting, it is possible to exclude candidate regions that are not actually the main part. In addition, for example, when weighting the extracted candidate regions, a high weight is given to candidate regions that have a high accuracy evaluation as a region corresponding to the main part, and the accuracy evaluation as a region corresponding to the main part is performed. By reducing the weight of the candidate region having a low value, the influence of the candidate region which is not a main part in practice can be reduced.

【0017】このように、請求項1の発明によれば、他
の候補領域との重複の有無及び重複度に基づいて、主要
部に相当する領域としての確度を、抽出した候補領域に
ついて評価しているので、この評価の結果に基づいて、
画像中の主要部に相当すると推定される領域の誤抽出に
よる影響を低減することができる。
As described above, according to the first aspect of the present invention, the accuracy as the region corresponding to the main part is evaluated for the extracted candidate regions based on the presence / absence of overlap with other candidate regions and the degree of overlap. So, based on the results of this evaluation,
It is possible to reduce the influence of erroneous extraction of a region estimated to correspond to the main part in the image.

【0018】なお、抽出した候補領域に対する評価結果
を利用する後処理として、抽出した候補領域から主要部
に相当する領域としての確度の高い候補領域を選択する
処理を行う場合には、請求項3に記載したように、抽出
した候補領域に対して主要部に相当する領域としての確
度を評価した結果を表す評価値を閾値と比較すること
で、抽出した候補領域から主要部に相当する領域として
の確度の高い候補領域を選択することが好ましい。これ
により、抽出された候補領域の中に実際には主要部でな
い候補領域が含まれていたとしても、該候補領域を評価
値に基づいて除外することができ、主要部に相当する領
域としての確度の高い候補領域を、簡易な処理によって
精度良く選択できると共に、閾値を変更することで候補
領域の選択の基準を補正することも可能となる。
It should be noted that, as a post-process for utilizing the evaluation result for the extracted candidate region, when performing a process for selecting a highly reliable candidate region as a region corresponding to a main part from the extracted candidate region, the method according to claim 3 As described in, by comparing the evaluation value representing the result of evaluating the accuracy as a region corresponding to the main part to the extracted candidate region with a threshold value, as a region corresponding to the main part from the extracted candidate region. It is preferable to select a candidate region with high accuracy. As a result, even if the extracted candidate area actually includes a candidate area that is not the main part, the candidate area can be excluded based on the evaluation value, and the candidate area can be excluded. It is possible to select a highly accurate candidate region with high accuracy by simple processing, and it is also possible to correct the selection criterion of the candidate region by changing the threshold value.

【0019】また、抽出した候補領域に対する評価結果
を利用する後処理として、請求項4に記載したように、
抽出した候補領域又は抽出した候補領域から選択した候
補領域を、主要部に相当する領域としての確度を評価し
た結果を表す評価値に従って重み付けし、主要部の画像
特徴量として、抽出した候補領域又は前記選択した候補
領域の画像特徴量の加重平均を演算する処理を行っても
よい。これにより、抽出された候補領域の中に実際には
主要部でない候補領域が含まれていたとしても、該候補
領域に対する重みを評価値に基づいて小さくすることが
でき、主要部の画像特徴量を簡単な処理により精度良く
求めることができる。なお請求項4の発明において、抽
出した候補領域から選択した候補領域を用いる場合の候
補領域の選択は、請求項3の発明と同様にして行うこと
ができる。
Further, as post-processing using the evaluation result for the extracted candidate area, as described in claim 4,
The extracted candidate area or the candidate area selected from the extracted candidate areas is weighted according to the evaluation value representing the result of evaluating the accuracy as the area corresponding to the main part, and as the image feature amount of the main part, the extracted candidate area or You may perform the process which calculates the weighted average of the image feature-value of the said candidate area selected. As a result, even if the extracted candidate area actually includes a candidate area that is not the main part, the weight for the candidate area can be reduced based on the evaluation value. Can be accurately obtained by a simple process. In addition, in the invention of claim 4, when the candidate area selected from the extracted candidate areas is used, the candidate area can be selected in the same manner as the invention of claim 3.

【0020】ところで、抽出した候補領域に対して主要
部に相当する領域としての確度を評価した後に行う後処
理としては、種々の処理が考えられるが、候補領域の誤
抽出や候補領域の誤評価があった場合に、後処理の処理
結果が受ける影響の程度は後処理の種類によって大きく
異なる。このため請求項5記載の発明は、請求項1の発
明において、抽出した候補領域に対して主要部に相当す
る領域としての確度を評価した後に、該評価の結果に基
づいて、主要部に相当する領域としての確度の高い候補
領域の選択及び抽出した候補領域の重み付けの少なくと
も一方を含む所定の画像処理を行う場合に、前記所定の
画像処理の種類に応じて、前記評価の基準を変更する
か、又は前記選択又は前記重み付けの基準を変更するこ
とを特徴としている。
By the way, various kinds of processing can be considered as the post-processing to be performed after the accuracy of the extracted candidate area as an area corresponding to the main part is evaluated. However, erroneous extraction of the candidate area and erroneous evaluation of the candidate area are possible. If there is such a problem, the extent to which the processing result of the post-processing is affected greatly depends on the type of the post-processing. Therefore, in the invention of claim 5, in the invention of claim 1, after the accuracy of the extracted candidate region as a region corresponding to the main part is evaluated, the result is equivalent to the main part based on the result of the evaluation. When performing a predetermined image processing including at least one of selection of a highly accurate candidate area as a region to be selected and weighting of the extracted candidate area, the evaluation criterion is changed according to the type of the predetermined image processing. Alternatively, the selection or the weighting criterion is changed.

【0021】請求項5記載の発明によれば、例えば所定
の画像処理が、候補領域の誤抽出や候補領域の誤評価が
あると処理結果が多大な影響を受ける画像処理である場
合に、例えば請求項6に記載したように、主要部に相当
する領域としての確度の評価の基準が厳しくなるように
前記評価の基準を変更するか、主要部に相当する領域と
しての確度がより高いと評価された候補領域のみが選択
されるように前記選択の基準を変更するか、主要部に相
当する領域としての確度が低いと評価された候補領域に
対する重みが相対的に小さくなるように重み付けの基準
を変更することができる。これにより、後処理におい
て、抽出した候補領域のうち主要部に対応する候補領域
の一部が選択されなかったり重みが小さくされる等の不
都合が生ずる可能性はあるものの、候補領域の誤抽出や
候補領域の誤評価があったとしても、所定の処理の処理
結果が多大な影響を受けることを回避することができ
る。
According to the fifth aspect of the present invention, for example, when the predetermined image processing is an image processing in which the processing result is greatly affected by erroneous extraction of the candidate area or erroneous evaluation of the candidate area, for example, As described in claim 6, the evaluation standard is changed so that the accuracy evaluation standard as the area corresponding to the main part becomes strict, or the accuracy as the area corresponding to the main part is higher. The selection criterion so that only the selected candidate region is selected, or a weighting criterion so that the weight for the candidate region evaluated to have low accuracy as a region corresponding to the main part becomes relatively small. Can be changed. As a result, in the post-processing, there is a possibility that some of the extracted candidate areas corresponding to the main part are not selected or the weight is reduced. Even if the candidate area is erroneously evaluated, it is possible to prevent the processing result of the predetermined processing from being greatly affected.

【0022】また、例えば所定の画像処理が、候補領域
の誤抽出や候補領域の誤評価があっても処理結果が受け
る影響の小さい画像処理である場合には、例えば請求項
7に記載したように、主要部に相当する領域としての確
度の評価の基準が緩くなるように前記評価の基準を変更
するか、主要部に相当する領域としての確度が低いと評
価された候補領域も選択されるように前記選択の基準を
変更するか、主要部に相当する領域としての確度が低い
と評価された候補領域に対する重みが相対的に大きくな
るように重み付けの基準を変更することができる。これ
により、候補領域の誤抽出や候補領域の誤評価があった
場合に、後処理において、実際には主要部でない候補領
域が選択されたり重みが大きくされる可能性はあるもの
の後処理の処理結果が受ける影響は小さくて済み、一
方、抽出した候補領域のうち主要部に対応する候補領域
が全て選択されたり、主要部に対応する候補領域に大き
な重みが付与される可能性が高くなるので適正な処理結
果が得られる。
Further, for example, when the predetermined image processing is an image processing which has a small influence on the processing result even if the candidate area is erroneously extracted or the candidate area is erroneously evaluated, as described in claim 7, for example. In addition, the criterion for evaluation of accuracy as a region corresponding to the main part is changed so as to be loose, or a candidate region evaluated as having low accuracy as a region corresponding to the main part is also selected. As described above, the selection criterion may be changed, or the weighting criterion may be changed so that the weight of the candidate region evaluated as having low accuracy as a region corresponding to the main part becomes relatively large. As a result, in the case where there is an erroneous extraction of a candidate area or an erroneous evaluation of a candidate area, in the post-processing, there is a possibility that a candidate area that is not the main part is actually selected or the weight is increased, but the post-processing Since the influence of the result is small, on the other hand, it is more likely that all the candidate regions corresponding to the main part of the extracted candidate regions will be selected or that the candidate regions corresponding to the main part will be heavily weighted. Appropriate processing results can be obtained.

【0023】このように、請求項5の発明によれば、抽
出した候補領域に対して主要部に相当する領域としての
確度を評価した後に所定の画像処理を行う場合に、所定
の画像処理の種類に応じて、評価の基準を変更するか、
又は選択又は重み付けの基準を変更するので、所定の画
像処理の種類に拘らず常に適正な処理結果を得ることが
できる。
As described above, according to the invention of claim 5, when the predetermined image processing is performed after the accuracy of the extracted candidate area as the area corresponding to the main part is evaluated, the predetermined image processing is performed. Change the evaluation criteria depending on the type,
Alternatively, since the selection or weighting criterion is changed, an appropriate processing result can always be obtained regardless of the type of the predetermined image processing.

【0024】ところで、例えば逆光の照明条件下で人物
を撮影した画像を記録材料に記録する際に、画像中の高
輝度の背景部分を主要部(この場合は人物の顔)に相当
する領域と誤判定し、該領域の濃度に基づいて記録濃度
を制御したとすると、記録画像の品質は極度に低くな
る。また、例えば背景部分が低輝度の画像を記録材料に
記録する際に、前記低輝度の背景部分を主要部(逆光の
照明条件下でストロボを発光させずに撮影した人物の顔
等)に相当する領域と誤判定し、該領域の濃度に基づい
て記録濃度を制御した場合にも、記録画像の品質は極度
に低くなる。
By the way, for example, when recording an image of a person photographed under a backlit condition on a recording material, a high-intensity background portion in the image is set as an area corresponding to a main part (in this case, a person's face). If an erroneous determination is made and the recording density is controlled based on the density of the area, the quality of the recorded image will be extremely low. Further, for example, when recording an image with a low brightness background part on a recording material, the low brightness background part corresponds to the main part (a person's face, etc., which was photographed under a backlit illumination condition without firing a strobe). Even when the area is erroneously determined to be a certain area and the recording density is controlled based on the density of the area, the quality of the recorded image is extremely low.

【0025】上記に基づき請求項8記載の発明は、請求
項1の発明において、候補領域内の濃度が第1の所定値
よりも高いか、又は第2の所定値よりも低い候補領域に
ついては、主要部に相当する領域としての確度の評価を
低くするか、又は前記主要部に相当する領域としての確
度の高い候補領域を選択する際の選択の基準を高くする
ことを特徴としている。
Based on the above, in the invention according to claim 8, in the invention according to claim 1, the density in the candidate area is higher than the first predetermined value or lower than the second predetermined value. It is characterized in that the evaluation of the accuracy as the area corresponding to the main part is lowered, or the selection criterion for selecting the candidate area with high accuracy as the area corresponding to the main part is increased.

【0026】請求項8の発明では、候補領域内の濃度が
第1の所定値よりも高いか、又は第2の所定値よりも低
い候補領域、すなわち候補領域内の濃度が極端に高いか
又は極端に低い候補領域については、主要部に相当する
領域としての確度の評価を低くするか又は主要部に相当
する領域としての確度の高い候補領域を選択する際の選
択の基準を高くするので、主要部に相当する領域として
の確度の評価を低くする場合には、濃度が極端に高いか
又は極端に低く候補領域として誤抽出された領域が、後
処理において、主要部に相当する領域としての確度が高
い候補領域として選択されたり、大きな重みが付与され
ることを防止することができる。
In the invention of claim 8, the density in the candidate area is higher than the first predetermined value, or lower than the second predetermined value, that is, the density in the candidate area is extremely high, or For an extremely low candidate area, the evaluation of accuracy as an area corresponding to the main part is lowered, or the selection criterion when selecting a highly accurate candidate area as an area corresponding to the main part is increased. When lowering the accuracy evaluation as the area corresponding to the main part, the area erroneously extracted as a candidate area whose density is extremely high or extremely low is regarded as the area corresponding to the main part in the post-processing. It is possible to prevent the candidate region from being selected with high accuracy and from being given a large weight.

【0027】また後処理として、主要部に相当する領域
としての確度の高い候補領域の選択を含む処理を行うの
であれば、主要部に相当する領域としての確度の高い候
補領域の選択の基準を高くすることによっても、濃度が
極端に高いか又は極端に低く候補領域として誤抽出され
た領域が、主要部に相当する領域としての確度が高い候
補領域として選択されることを防止することができる。
従って、濃度が極端に高いか又は極端に低い領域が候補
領域として誤抽出された場合にも、後処理の処理結果が
不適正となることを回避できる。
Further, as a post-processing, if a process including selection of a highly accurate candidate region as a region corresponding to the main part is performed, a criterion for selecting a highly accurate candidate region as the region corresponding to the main part is used. Even by increasing the density, it is possible to prevent a region erroneously extracted as a candidate region whose density is extremely high or extremely low from being selected as a candidate region having high accuracy as a region corresponding to the main part. .
Therefore, even when an area having extremely high or extremely low density is erroneously extracted as a candidate area, it is possible to prevent the post-processing processing result from being unsuitable.

【0028】請求項9記載の発明に係る画像処理装置
は、画像データに基づいて、該画像データが表す画像中
の主要部に相当すると推定される候補領域を抽出する抽
出手段と、前記抽出した候補領域のうち、画像上で他の
候補領域と重複している候補領域について、前記他の候
補領域との重複度を求める演算手段と、他の候補領域と
重複している候補領域に対する前記画像中の主要部に相
当する領域としての確度の評価が、他の候補領域と重複
していない候補領域に対する前記評価よりも高くなり、
かつ他の候補領域との重複度が高くなるに従って更に高
くなるように、前記抽出した候補領域に対して前記主要
部に相当する領域としての確度を評価する評価手段と、
を含んで構成されているので、請求項1の発明と同様
に、画像中の主要部に相当すると推定される領域の誤抽
出による影響を低減することができる。
An image processing apparatus according to a ninth aspect of the present invention includes, based on the image data, extraction means for extracting a candidate area estimated to correspond to a main part in the image represented by the image data, and the extraction means. Of the candidate areas, for a candidate area that overlaps another candidate area on the image, a calculating unit that obtains the degree of overlap with the other candidate area, and the image for the candidate area that overlaps the other candidate area Accuracy evaluation as a region corresponding to the main part of the inside is higher than the evaluation for the candidate region that does not overlap with other candidate regions,
And so as to become higher as the degree of overlap with other candidate areas becomes higher, an evaluation means for evaluating the accuracy as an area corresponding to the main part with respect to the extracted candidate areas,
Since it is configured to include, it is possible to reduce the influence of erroneous extraction of the region estimated to correspond to the main part in the image, as in the invention of claim 1.

【0029】請求項10記載の発明に係る記録媒体は、
画像データに基づいて、該画像データが表す画像中の主
要部に相当すると推定される候補領域を抽出する第1の
ステップ、前記抽出した候補領域のうち、画像上で他の
候補領域と重複している候補領域について、前記他の候
補領域との重複度を求める第2のステップ、他の候補領
域と重複している候補領域に対する前記画像中の主要部
に相当する領域としての確度の評価が、他の候補領域と
重複していない候補領域に対する前記評価よりも高くな
り、かつ他の候補領域との重複度が高くなるに従って更
に高くなるように、前記抽出した候補領域に対して前記
主要部に相当する領域としての確度を評価する第3のス
テップを含む処理をコンピュータに実行させるためのプ
ログラムが記憶されている。
A recording medium according to the invention of claim 10 is
A first step of extracting a candidate region estimated to correspond to a main part in the image represented by the image data based on the image data, and among the extracted candidate regions, overlaps with other candidate regions on the image. The second step of obtaining the degree of overlap with the other candidate area with respect to the candidate area that is present, the accuracy of the candidate area overlapping the other candidate area is evaluated as an area corresponding to the main part in the image. , The main part with respect to the extracted candidate region, so that the evaluation is higher than the evaluation for a candidate region that does not overlap with another candidate region, and further higher as the degree of overlap with another candidate region is higher. A program for causing a computer to execute a process including a third step of evaluating accuracy as a region corresponding to is stored.

【0030】請求項10記載の発明に係る記録媒体に
は、上記の第1のステップ乃至第3のステップを含む処
理、すなわち請求項1の発明に記載の画像処理方法に係
る処理をコンピュータに実行させるためのプログラムが
記録されているので、コンピュータが前記記録媒体に記
録されているプログラムを読み出して実行することによ
り、請求項1の発明と同様に、画像中の主要部に相当す
ると推定される領域の誤抽出による影響を低減すること
ができる。
A recording medium according to a tenth aspect of the present invention causes a computer to execute a process including the first to third steps described above, that is, a process according to the image processing method of the first aspect of the invention. Since the program for performing the recording is recorded, it is estimated that the computer reads and executes the program recorded in the recording medium to correspond to the main part in the image as in the invention of claim 1. The influence of erroneous extraction of the area can be reduced.

【0031】[0031]

【発明の実施の形態】以下、図面を参照し、本発明の実
施形態の一例を詳細に説明する。図1には、本発明が適
用された画像処理システム10が示されている。画像処
理システム10は、スキャナ12、画像処理装置14及
びプリンタ16が直列に接続されて構成されている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an image processing system 10 to which the present invention is applied. The image processing system 10 is configured by connecting a scanner 12, an image processing device 14, and a printer 16 in series.

【0032】スキャナ12は、写真フィルム(例えばネ
ガフィルムやリバーサルフィルム)等の写真感光材料
(以下単に写真フィルムと称する)に記録されているフ
ィルム画像(被写体を撮影後、現像処理されることで可
視化されたネガ画像又はポジ画像)を読み取り、該読み
取りによって得られた画像データを出力するものであ
り、光源20から射出され光拡散ボックス22によって
光量むらが低減された光が、フィルムキャリア24にセ
ットされているネガフィルムやリバーサルフィルム等の
写真フィルム26に照射され、写真フィルム26を透過
した光がレンズ28を介してCCDセンサ30(エリア
センサであってもラインセンサであってもよい)の受光
面上に結像されるように構成されている。
The scanner 12 visualizes a film image recorded on a photographic light-sensitive material (hereinafter, simply referred to as a photographic film) such as a photographic film (for example, a negative film or a reversal film) (a subject is photographed and then developed to be developed. Negative image or positive image) and outputs the image data obtained by the reading, and the light emitted from the light source 20 and having the uneven light amount reduced by the light diffusion box 22 is set on the film carrier 24. The photographic film 26, such as a negative film or a reversal film, which has been recorded, receives light transmitted through the photographic film 26 through a lens 28 and received by a CCD sensor 30 (which may be an area sensor or a line sensor). It is configured to form an image on a surface.

【0033】フィルムキャリア24は、写真フィルム2
6上のフィルム画像が記録されている箇所が、光源20
からの射出光の光軸上に順に位置するように写真フィル
ム26を搬送する。これにより、写真フィルム26に記
録されているフィルム画像がCCDセンサ30によって
順に読み取られ、CCDセンサ30からはフィルム画像
に対応する信号が出力される。CCDセンサ30から出
力された信号はA/D変換器32によってデジタルの画
像データに変換されて画像処理装置14に入力される。
The film carrier 24 is a photographic film 2
6 is the light source 20 where the film image is recorded.
The photographic film 26 is conveyed so as to be sequentially positioned on the optical axis of the light emitted from the. As a result, the film images recorded on the photographic film 26 are sequentially read by the CCD sensor 30, and the CCD sensor 30 outputs a signal corresponding to the film image. The signal output from the CCD sensor 30 is converted into digital image data by the A / D converter 32 and input to the image processing device 14.

【0034】画像処理装置14のラインスキャナ補正部
36は、入力されたスキャンデータ(スキャナ12から
入力されるR、G、Bのデータ)から各画素毎に対応す
るセルの暗出力レベルを減ずる暗補正、暗補正を行った
データを濃度値を表すデータに対数変換する濃度変換、
写真フィルム26を照明する光の光量むらに応じて濃度
変換後のデータを補正するシェーディング補正、該シェ
ーディング補正を行ったデータのうち入射光量に対応し
た信号が出力されないセル(所謂欠陥画素)のデータを
周囲の画素のデータから補間して新たに生成する欠陥画
素補正の各処理を順に行う。ラインスキャナ補正部36
の出力端はI/Oコントローラ38の入力端に接続され
ており、ラインスキャナ補正部36で前記各処理が施さ
れたデータはスキャンデータとしてI/Oコントローラ
38に入力される。
The line scanner correction unit 36 of the image processing device 14 subtracts the dark output level of the cell corresponding to each pixel from the input scan data (R, G, B data input from the scanner 12). Density conversion that performs logarithmic conversion of data that has undergone correction and darkness correction into data that expresses density values,
Shading correction that corrects the data after density conversion according to the light amount unevenness of the light that illuminates the photographic film 26, and data of a cell (so-called defective pixel) that does not output a signal corresponding to the incident light amount in the data that has been subjected to the shading correction. Are sequentially performed by interpolating from the data of surrounding pixels to newly generate defective pixel correction. Line scanner correction unit 36
Is connected to the input end of the I / O controller 38, and the data processed by the line scanner correction unit 36 is input to the I / O controller 38 as scan data.

【0035】I/Oコントローラ38の入力端は、イメ
ージプロセッサ40のデータ出力端にも接続されてお
り、イメージプロセッサ40からは画像処理(詳細は後
述)が行われた画像データが入力される。また、I/O
コントローラ38の入力端はパーソナルコンピュータ4
2にも接続されている。パーソナルコンピュータ42は
拡張スロット(図示省略)を備えており、この拡張スロ
ットには、メモリカードやCD−R等の情報記憶媒体に
対してデータの読出し/書込みを行うドライバ(図示省
略)や、他の情報処理機器と通信を行うための通信制御
装置が接続される。拡張スロットを介して外部からファ
イル画像データが入力された場合、入力されたファイル
画像データはI/Oコントローラ38へ入力される。
The input end of the I / O controller 38 is also connected to the data output end of the image processor 40, and the image data subjected to image processing (details will be described later) is input from the image processor 40. Also, I / O
The input end of the controller 38 is the personal computer 4
It is also connected to 2. The personal computer 42 is provided with an expansion slot (not shown). In the expansion slot, a driver (not shown) for reading / writing data from / into an information storage medium such as a memory card or a CD-R, and the like are provided. A communication control device for communicating with the information processing device is connected. When file image data is input from the outside via the expansion slot, the input file image data is input to the I / O controller 38.

【0036】I/Oコントローラ38の出力端は、イメ
ージプロセッサ40のデータ入力端、オートセットアッ
プエンジン44、パーソナルコンピュータ42に各々接
続されており、更にI/F回路54を介してプリンタ1
6に接続されている。I/Oコントローラ38は、入力
された画像データを、出力端に接続された前記各機器に
選択的に出力する。
The output terminal of the I / O controller 38 is connected to the data input terminal of the image processor 40, the auto setup engine 44, and the personal computer 42, and the printer 1 is connected via the I / F circuit 54.
Connected to 6. The I / O controller 38 selectively outputs the input image data to each of the devices connected to the output end.

【0037】本実施形態では、写真フィルム26に記録
されている個々のフィルム画像に対し、スキャナ12に
おいて異なる解像度で2回の読み取りを行う。1回目の
比較的低解像度での読み取り(以下、プレスキャンとい
う)では、フィルム画像の濃度が非常に低い場合(例え
ばネガフィルムにおける露光アンダのネガ画像)にも、
CCDセンサ30で蓄積電荷の飽和が生じないように決
定した読取条件(写真フィルム26に照射する光のR、
G、Bの各波長域毎の光量、CCDセンサ30の電荷蓄
積時間)で写真フィルム26の全面の読み取りが行われ
る。このプレスキャンによって得られたデータ(プレス
キャンデータ)は、I/Oコントローラ38からオート
セットアップエンジン44へ入力される。
In the present embodiment, each film image recorded on the photographic film 26 is read by the scanner 12 twice at different resolutions. In the first reading with relatively low resolution (hereinafter referred to as prescan), even when the density of the film image is very low (for example, the negative image of the exposure underexposure on the negative film),
Reading conditions determined by the CCD sensor 30 so as not to cause saturation of accumulated charges (R of light irradiated on the photographic film 26,
The entire surface of the photographic film 26 is read according to the amount of light in each wavelength range of G and B and the charge storage time of the CCD sensor 30. The data (prescan data) obtained by this prescan is input from the I / O controller 38 to the auto setup engine 44.

【0038】オートセットアップエンジン44は、CP
U46、RAM48(例えばDRAM)、ROM50
(例えば記憶内容を書換え可能なROM)、入出力ポー
ト52を備え、これらがバスを介して互いに接続されて
構成されている。オートセットアップエンジン44は、
I/Oコントローラ38から入力されたプレスキャンデ
ータに基づいてフィルム画像のコマ位置を判定し、写真
フィルム26上のフィルム画像記録領域に対応するデー
タ(プレスキャン画像データ)を抽出する。また、プレ
スキャン画像データに基づいて、フィルム画像のサイズ
を判定すると共に濃度等の画像特徴量を演算し、プレス
キャンを行った写真フィルム26に対し、スキャナ12
が比較的高解像度での再度の読み取り(以下、ファイン
スキャンという)を行う際の読取条件を決定する。そし
てコマ位置及び読取条件をスキャナ12に出力する。
The auto setup engine 44 is a CP
U46, RAM48 (eg DRAM), ROM50
(For example, a ROM whose stored contents can be rewritten) and an input / output port 52 are provided and are connected to each other via a bus. The auto setup engine 44
The frame position of the film image is determined based on the prescan data input from the I / O controller 38, and the data (prescan image data) corresponding to the film image recording area on the photographic film 26 is extracted. In addition, the size of the film image is determined based on the prescan image data, and the image feature amount such as the density is calculated, and the scanner 12 is used for the prescanned photographic film 26.
Determines the reading condition when performing another reading at a relatively high resolution (hereinafter referred to as a fine scan). Then, the frame position and the reading condition are output to the scanner 12.

【0039】また、オートセットアップエンジン44
は、プレスキャン画像データに基づいて、フィルム画像
中の主要部(例えば人物の顔に相当する領域(顔領域))
の抽出を含む画像特徴量の演算を行い、スキャナ12が
ファインスキャンを行うことによって得られる画像デー
タ(ファインスキャン画像データ)に対する各種の画像
処理の処理条件を演算により自動的に決定し(セットア
ップ演算)、決定した処理条件をイメージプロセッサ4
0へ出力する。
Further, the auto setup engine 44
Is the main part of the film image based on the prescan image data (for example, the area corresponding to the face of a person (face area))
The image condition amount including the extraction of the image is calculated, and the processing conditions of various image processing for the image data (fine scan image data) obtained by the scanner 12 performing the fine scan are automatically determined by the calculation (the setup calculation. ), The determined processing conditions are applied to the image processor 4
Output to 0.

【0040】パーソナルコンピュータ42には、ディス
プレイ、キーボード、及びマウスが接続されている(何
れも図示省略)。パーソナルコンピュータ42は、オー
トセットアップエンジン44からプレスキャン画像デー
タを取込むと共に、オートセットアップエンジン44に
よって決定された画像処理の処理条件を取込み、取り込
んだ処理条件に基づき、ファインスキャン画像データを
対象としてイメージプロセッサ40で行われる画像処理
と等価な画像処理をプレスキャン画像データに対して行
ってシミュレーション画像データを生成する。
A display, a keyboard, and a mouse are connected to the personal computer 42 (all not shown). The personal computer 42 takes in the pre-scan image data from the auto-setup engine 44, takes in the processing conditions of the image processing determined by the auto-setup engine 44, and based on the taken-in processing conditions, images the fine scan image data as an object. Image processing equivalent to the image processing performed by the processor 40 is performed on the prescan image data to generate simulation image data.

【0041】そして、生成したシミュレーション画像デ
ータを、ディスプレイに画像を表示するための信号に変
換し、該信号に基づいてディスプレイにシミュレーショ
ン画像を表示する。また、表示されたシミュレーション
画像に対しオペレータによって画質等の検定が行われ、
検定結果として処理条件の修正を指示する情報がキーボ
ードを介して入力されると、該情報をオートセットアッ
プエンジン44へ出力する。これにより、オートセット
アップエンジン44では画像処理の処理条件の再演算等
の処理が行われる。
Then, the generated simulation image data is converted into a signal for displaying an image on the display, and the simulation image is displayed on the display based on the signal. In addition, the operator tests the displayed simulation image for image quality,
When the information indicating the correction of the processing conditions is input through the keyboard as the verification result, the information is output to the auto setup engine 44. As a result, the auto-setup engine 44 performs processing such as recalculation of processing conditions for image processing.

【0042】一方、スキャナ12でフィルム画像に対し
てファインスキャンが行われることによってI/Oコン
トローラ38に入力された画像データ(ファインスキャ
ン画像データ)は、I/Oコントローラ38からイメー
ジプロセッサ40へ入力される。イメージプロセッサ4
0は、階調変換や色変換を含む色・濃度補正処理、画素
密度変換処理、画像の超低周波輝度成分の階調を圧縮す
るハイパートーン処理、粒状を抑制しながらシャープネ
スを強調するハイパーシャープネス処理等の各種の画像
処理を行う画像処理回路を各々備えており、入力された
画像データに対し、オートセットアップエンジン44に
よって各画像毎に決定されて通知された処理条件に従っ
て種々の画像処理を行う。
On the other hand, the image data (fine scan image data) input to the I / O controller 38 by fine scanning the film image by the scanner 12 is input from the I / O controller 38 to the image processor 40. To be done. Image processor 4
0 is color / density correction processing including gradation conversion and color conversion, pixel density conversion processing, hypertone processing that compresses the gradation of the ultra-low frequency luminance component of the image, hypersharpness that emphasizes sharpness while suppressing graininess. An image processing circuit for performing various image processing such as processing is provided, and various image processing is performed on the input image data according to the processing conditions determined and notified for each image by the auto setup engine 44. .

【0043】イメージプロセッサ40で実行可能な画像
処理としては、上記以外に、例えば画像全体又は一部分
(例えば人物の顔に相当する領域)に対するシャープネ
ス補正又はソフトフォーカス処理や、画調を意図的に変
更する画像処理(出力画像をモノトーンに仕上げる画像
処理、出力画像をポートレート調に仕上げる画像処理、
出力画像をセピア調に仕上げる画像処理等)や、画像を
加工する画像処理(例えば原画像中に存在する人物を主
画像上で細身に仕上げるための画像処理、赤目を修正す
る画像処理等)や、LF(レンズ付きフィルム)によっ
て撮影された画像に対し、LFのレンズの歪曲収差、倍
率色収差に起因する画像の幾何学的歪み、色ずれを補正
するLF収差補正処理や、LFのレンズの周辺減光に起
因する画像の周縁部の明度低下を補正する周辺減光補正
処理や、LFのレンズの特性に起因する画像の鮮鋭度の
低下を補正するピントボケ補正処理等のように、LFの
レンズの特性に起因する出力画像の画質の低下を補正す
る各種のLF収差補正処理等が挙げられる。
As image processing that can be executed by the image processor 40, in addition to the above, for example, sharpness correction or soft focus processing for the entire image or a part (for example, an area corresponding to a person's face), or intentionally changing the image tone is performed. Image processing (image processing that finishes the output image in monotone, image processing that finishes the output image in portrait style,
Image processing for finishing the output image in sepia tone, etc., Image processing for processing the image (for example, image processing for finishing a person existing in the original image on the main image to be slender, image processing for correcting red eyes, etc.), , LF (film with lens), the LF aberration correction processing for correcting the distortion of the lens of LF, the geometric distortion of the image caused by the chromatic aberration of magnification, and the color shift, and the periphery of the lens of LF. For example, a peripheral light reduction correction process for correcting a decrease in brightness of an edge portion of an image due to light reduction, and a focus blur correction process for correcting a decrease in image sharpness due to a characteristic of an LF lens, etc. Various LF aberration correction processing and the like for correcting the deterioration of the image quality of the output image due to the characteristics of

【0044】イメージプロセッサ40で画像処理が行わ
れた画像データを印画紙への画像の記録に用いる場合に
は、イメージプロセッサ40で画像処理が行われた画像
データは、I/Oコントローラ38からI/F回路54
を介し記録用画像データとしてプリンタ16へ出力され
る。また、画像処理後の画像データを画像ファイルとし
て外部へ出力する場合は、I/Oコントローラ38から
パーソナルコンピュータ42に画像データが出力され
る。これにより、パーソナルコンピュータ42では、外
部への出力用としてI/Oコントローラ38から入力さ
れた画像データを、拡張スロットを介して画像ファイル
として外部(前記ドライバや通信制御装置等)に出力す
る。
When the image data processed by the image processor 40 is used for recording an image on photographic paper, the image data processed by the image processor 40 is transferred from the I / O controller 38 to the I / O controller 38. / F circuit 54
Is output to the printer 16 as recording image data. When the image data after the image processing is output to the outside as an image file, the image data is output from the I / O controller 38 to the personal computer 42. As a result, the personal computer 42 outputs the image data input from the I / O controller 38 for output to the outside to the outside (the driver, the communication control device, etc.) as an image file via the expansion slot.

【0045】プリンタ16は、画像メモリ58、R,
G,Bのレーザ光源60、該レーザ光源60の作動を制
御するレーザドライバ62を備えている。画像処理装置
14から入力された記録用画像データは画像メモリ58
に一旦記憶された後に読み出され、レーザ光源60から
射出されるR,G,Bのレーザ光の変調に用いられる。
レーザ光源60から射出されたレーザ光は、ポリゴンミ
ラー64、fθレンズ66を介して印画紙68上を走査
され、印画紙68に画像が露光記録される。画像が露光
記録された印画紙68は、プロセッサ部18へ送られて
発色現像、漂白定着、水洗、乾燥の各処理が施される。
これにより、印画紙68に露光記録された画像が可視化
される。
The printer 16 includes an image memory 58, R,
A G and B laser light source 60 and a laser driver 62 for controlling the operation of the laser light source 60 are provided. The recording image data input from the image processing device 14 is stored in the image memory 58.
It is used for modulation of the R, G, and B laser beams emitted from the laser light source 60 after being stored once in the memory.
The laser light emitted from the laser light source 60 is scanned on the printing paper 68 via the polygon mirror 64 and the fθ lens 66, and an image is exposed and recorded on the printing paper 68. The photographic printing paper 68 on which the image has been exposed and recorded is sent to the processor section 18 and subjected to color development, bleach-fixing, water washing and drying.
As a result, the image exposed and recorded on the photographic printing paper 68 is visualized.

【0046】次に本実施形態の作用として、スキャナ1
2から画像処理装置14にプレスキャンデータが入力さ
れ、オートセットアップエンジン44において、プレス
キャンデータからの画像データの切り出し等の処理を行
った後で行われる顔領域抽出・濃度演算処理について説
明する。
Next, as an operation of this embodiment, the scanner 1
The face area extraction / density calculation processing performed after the prescan data is input to the image processing apparatus 14 from 2 and the auto setup engine 44 performs processing such as cutting out the image data from the prescan data will be described.

【0047】この顔領域抽出・濃度演算処理は、本発明
に係る画像処理方法が適用された処理であり、オートセ
ットアップエンジン44のCPU46により、顔領域抽
出・濃度補正プログラムが実行されることにより実現さ
れる。顔領域抽出・濃度補正プログラムは、その他の処
理をCPU46で実行させるためのプログラムと共に、
当初は、情報記憶媒体72(図1参照)に記憶されてい
る。なお、図1では情報記憶媒体72をフロッピーディ
スクとして示しているが、CD−ROMやメモリカード
等で構成してもよい。パーソナルコンピュータ42に接
続された情報読出装置(図示省略)に情報記憶媒体72
が装填され、情報記憶媒体72から画像処理装置14へ
のプログラムの移入(インストール)が指示されると、
情報読出装置によって情報記憶媒体72から顔領域抽出
・濃度補正プログラム等が読み出され、記憶内容を書換
え可能なROM50に記憶される。
This face area extraction / density calculation processing is processing to which the image processing method according to the present invention is applied, and is realized by the CPU 46 of the auto setup engine 44 executing the face area extraction / density correction program. To be done. The face area extraction / density correction program is a program for causing the CPU 46 to execute other processing,
Initially, it is stored in the information storage medium 72 (see FIG. 1). Although the information storage medium 72 is shown as a floppy disk in FIG. 1, it may be constituted by a CD-ROM, a memory card or the like. An information storage medium 72 is connected to an information reading device (not shown) connected to the personal computer 42.
Is loaded, and the transfer (installation) of the program from the information storage medium 72 to the image processing apparatus 14 is instructed,
A face area extraction / density correction program or the like is read from the information storage medium 72 by the information reading device and stored in the rewritable ROM 50.

【0048】そして、顔領域抽出・濃度補正処理を実行
すべきタイミングが到来すると、ROM50から顔領域
抽出・濃度補正プログラムが読み出され、顔領域抽出・
濃度補正プログラムがCPU46によって実行される。
これにより、オートセットアップエンジン44は本発明
に係る画像処理装置として機能する。このように、顔領
域抽出・濃度補正プログラム等を記憶している情報記憶
媒体72は請求項10に記載の記録媒体に対応してい
る。
Then, when the timing to execute the face area extraction / density correction processing comes, the face area extraction / density correction program is read from the ROM 50, and the face area extraction / density correction processing is executed.
The density correction program is executed by the CPU 46.
As a result, the auto setup engine 44 functions as the image processing device according to the present invention. Thus, the information storage medium 72 storing the face area extraction / density correction program and the like corresponds to the recording medium according to claim 10.

【0049】以下、顔領域抽出・濃度補正処理につい
て、図2のフローチャートを参照して説明する。ステッ
プ100では、処理対象の画像データに基づき、画像デ
ータが表す画像中の主要部として、画像中の人物の顔に
相当すると推定される領域(顔候補領域を抽出する顔候
補領域抽出処理を行う。この顔候補領域抽出処理を行う
ための抽出方式としては、画像中の人物の顔に相当する
と推定される領域を判断し、該領域を顔候補領域として
抽出する顔候補領域抽出方式や、画像中の背景に相当す
ると推定される領域(背景領域)を判断し、背景領域以
外の領域を顔候補領域として抽出する背景部除去方式等
があり、具体的には、従来より公知の、下記のような顔
候補抽出方式、背景除去方式のうちの少なくとも何れか
を採用して顔候補領域抽出処理を行うことができる。
The face area extraction / density correction processing will be described below with reference to the flowchart of FIG. In step 100, based on the image data to be processed, as a main part in the image represented by the image data, a region estimated to correspond to the face of a person in the image (face candidate region extraction processing for extracting a face candidate region is performed. As an extraction method for performing this face candidate area extraction process, a face candidate area extraction method for determining an area estimated to correspond to a human face in an image and extracting the area as a face candidate area, and an image There is a background portion removal method that determines an area (background area) estimated to correspond to the background inside and extracts an area other than the background area as a face candidate area. At least one of the face candidate extraction method and the background removal method can be adopted to perform the face candidate area extraction processing.

【0050】〔顔候補領域抽出方式の例1〕画像を多数
の測定点に分割すると共に各測定点をR、G、Bの3色
に分解することにより得られたデータ(画像データ)に
基づいて、各測定点が色座標上で肌色の範囲内に含まれ
ているか否か判定し、肌色の範囲内と判断した測定点の
クラスタ(群)が存在している領域を顔候補領域として
抽出する(特開昭 52-156624号公報、特開昭 52-156625
号公報、特開昭53-12330号公報、特開昭 53-145620号公
報、特開昭 53-145621号公報、特開昭 53-145622号公報
等参照)。
[Example 1 of Face Candidate Region Extraction Method] Based on data (image data) obtained by dividing an image into a large number of measuring points and separating each measuring point into three colors of R, G and B. Determine whether or not each measurement point is included in the skin color range on the color coordinates, and extract the area where the cluster (group) of measurement points that are judged to be in the skin color range is present as the face candidate area. (JP-A-52-156624, JP-A-52-156625)
JP-A-53-12330, JP-A-53-145620, JP-A-53-145621, and JP-A-53-145622).

【0051】〔顔候補領域抽出方式の例2〕前記画像デ
ータに基づいて、色相値(及び彩度値)についてのヒス
トグラムを求め、求めたヒストグラムを山毎に分割し、
各測定点が分割した山の何れに属するかを判断して各測
定点を分割した山に対応する群に分け、各群毎に画像を
複数の領域に分割し、該複数の領域のうち人物の顔に相
当する領域を推定し、推定した領域を顔候補領域として
抽出する(特開平4-346333号公報参照)。
[Example 2 of Face Candidate Area Extraction Method] Based on the image data, a histogram of hue values (and saturation values) is obtained, and the obtained histogram is divided into mountains.
Determine which of the divided mountains each measurement point belongs to, divide each measurement point into a group corresponding to the divided mountains, divide the image into a plurality of regions for each group, and select the person among the plurality of regions. The area corresponding to the face is estimated and the estimated area is extracted as a face candidate area (see Japanese Patent Laid-Open No. 4-346333).

【0052】〔顔候補領域抽出方式の例3〕前記画像デ
ータに基づいて、画像中に存在する人物の各部に特有の
形状パターン(例えば頭部の輪郭、顔の輪郭、顔の内部
構造、胴体の輪郭等を表す形状パターン)の何れか1つ
を探索し、検出した形状パターンの大きさ、向き、検出
した形状パターンが表す人物の所定部分と人物の顔との
位置関係に応じて、人物の顔に相当すると推定される領
域を設定する。また、検出した形状パターンと異なる他
の形状パターンを探索し、先に設定した領域の、人物の
顔としての整合性を求め、顔候補領域を抽出する(特開
平8-122944号公報、特開平8-183925号公報、特開平9-13
8471号公報等参照)。
[Example 3 of Face Candidate Region Extraction Method] Based on the image data, a shape pattern peculiar to each part of the person existing in the image (for example, contour of head, contour of face, internal structure of face, body) Any one of the shape patterns representing the contours of the person) is searched, and the size and direction of the detected shape pattern, and the positional relationship between the predetermined part of the person represented by the detected shape pattern and the face of the person are detected. Set an area estimated to correspond to the face. Further, another shape pattern different from the detected shape pattern is searched, the matching of the previously set area as a human face is obtained, and a face candidate area is extracted (Japanese Patent Laid-Open No. 8-122944, Japanese Patent Laid-Open No. 8-183925, JP 9-13
See 8471 publication, etc.).

【0053】〔背景部除去方式の例1〕前記画像データ
に基づいて、各測定点が、色座標上で明らかに背景に属
する特定の色(例えば空や海の青、芝生や木の緑等)の
範囲内に含まれているか否か判定し、前記特定の色範囲
内と判断した測定点のクラスタ(群)が存在している領
域を背景領域と判断して除去し、残った領域を非背景領
域(人物の顔に相当する領域が含まれている可能性の高
い領域:これも本発明の顔候補領域)として抽出する。
[Example 1 of Background Removal Method] Based on the image data, each measurement point has a specific color that clearly belongs to the background on the color coordinates (for example, blue of sky or sea, green of lawn or tree, etc.). ), The area where the cluster (group) of measurement points determined to be within the specific color range is present is determined as the background area, and the remaining area is removed. It is extracted as a non-background region (region that is highly likely to include a region corresponding to a person's face: this is also a face candidate region of the present invention).

【0054】〔背景部除去方式の例2〕前記画像データ
に基づき、先の主要部抽出方式の例2と同様にして画像
を複数の領域に分割した後に、各領域毎に背景に相当す
る領域としての特徴量(輪郭に含まれる直線部分の比
率、線対称度、凹凸数、画像外縁との接触率、領域内の
濃度コントラスト、領域内の濃度の変化パターンの有無
等)を求め、求めた特徴量に基づいて各領域が背景領域
か否か判定し背景部と判断した領域を除去し、残った領
域を非背景領域(顔候補領域)として抽出する(特開平
8-122944号公報、特開平8-183925号公報等参照)。
[Example 2 of Background Removal Method] Based on the image data, the image is divided into a plurality of areas in the same manner as in Example 2 of the main part extraction method described above, and then an area corresponding to the background is created for each area. As a result, the feature amount (the ratio of the straight line portion included in the contour, the degree of line symmetry, the number of irregularities, the contact rate with the outer edge of the image, the density contrast in the area, the presence or absence of the density change pattern in the area, etc.) It is determined whether or not each area is a background area based on the feature amount, the area determined as the background portion is removed, and the remaining area is extracted as a non-background area (face candidate area).
8-122944, JP-A-8-183925, etc.).

【0055】なお上記の抽出方式は単なる一例であり、
画像から人物の顔に相当すると推定される領域を抽出す
る抽出方式であれば、どのような方式であっても適用可
能であることは言うまでもない。またステップ100で
は、複数種の抽出方式を各々適用して顔候補領域抽出処
理を複数回行ってもよいし、単一種の抽出方式で処理条
件を各々変えて顔候補領域抽出処理を複数回行うように
してもよい。
The above extraction method is merely an example.
It goes without saying that any method can be applied as long as it is an extraction method for extracting an area estimated to correspond to a human face from an image. In step 100, the face candidate area extraction processing may be performed a plurality of times by applying a plurality of types of extraction methods, or the face candidate area extraction processing may be performed a plurality of times by changing the processing conditions by a single type of extraction method. You may do it.

【0056】ステップ100における顔候補領域抽出処
理により、例として図3に示すように、処理対象の画像
から複数の顔候補領域(図3では顔候補領域A〜D)が
抽出される。なお、ステップ100は請求項9に記載の
抽出手段に対応している。なお、以降の処理では顔候補
領域抽出処理によって抽出された顔候補領域に対して処
理を行うが、抽出された顔候補領域そのものを処理対象
としてもよいし、抽出された顔候補領域に外接する一定
形状の領域(例えば円形領域や矩形領域)を処理対象と
してもよい。
By the face candidate area extraction processing in step 100, as shown in FIG. 3 as an example, a plurality of face candidate areas (face candidate areas A to D in FIG. 3) are extracted from the image to be processed. Note that step 100 corresponds to the extraction means described in claim 9. In the following process, the face candidate region extracted by the face candidate region extraction process is processed, but the extracted face candidate region itself may be the processing target, or the extracted face candidate region is circumscribed. A region having a fixed shape (for example, a circular region or a rectangular region) may be the processing target.

【0057】ステップ102では、ステップ100の顔
候補領域抽出処理によって抽出された顔候補領域を全て
取り込み、次のステップ104では、取り込んだ顔候補
領域の中に、画像上で互いに重複している顔候補領域
(例として図3に示す顔候補領域A,B,Cを参照)が
有るか否か判定する。判定が肯定された場合にはステッ
プ106へ移行し、互いに重複している単一の顔候補領
域対(先の例では顔候補領域A,B、又は顔候補領域
A,C、又は顔候補領域B,C)を処理対象として取り
出し、次のステップ108では取り出した顔候補領域対
のサイズを基準として顔候補領域の重複度xを演算す
る。なお、ステップ108は先のステップ106と共に
請求項9に記載の演算手段に対応している。
In step 102, all the face candidate areas extracted by the face candidate area extraction processing in step 100 are fetched, and in the next step 104, faces that overlap each other on the image are included in the fetched face candidate areas. It is determined whether there is a candidate area (see face candidate areas A, B, and C shown in FIG. 3 as an example). If the determination is affirmative, the process proceeds to step 106, and a single face candidate region pair (face candidate regions A and B, or face candidate regions A and C, or face candidate regions in the above example) that overlap each other is used. (B, C) are taken out as processing targets, and in the next step 108, the degree of overlap x of the face candidate areas is calculated based on the size of the taken out face candidate area pair. Note that step 108 corresponds to the calculating means described in claim 9 together with the above step 106.

【0058】重複度xは、例えば図4(A)に示すよう
に顔候補領域Aと顔候補領域Bが重複しており、顔候補
領域Aの面積をSA 、顔候補領域Bの面積をSB 、重複
している領域の面積をSABとすると、例として次の
(1)式に従って演算することができる。
The degree of overlap x is, for example, as shown in FIG. 4 (A), the face candidate area A and the face candidate area B overlap, the area of the face candidate area A is S A , and the area of the face candidate area B is Assuming that S B is the area of the overlapping region and S AB is the area, calculation can be performed according to the following equation (1), for example.

【0059】 x=min(SAB/SA ,SAB/SB ) …(1) (1)式において、min( )は括弧内の数値の最小値を選
択することを表す演算子であり、SAB/SA は顔候補領
域Aの面積SA を基準にして重複領域の面積S ABを正規
化した値、SAB/SB は顔候補領域Bの面積SB を基準
にして重複領域の面積SABを正規化した値であるので、
(1)式は、重複している顔候補領域対A,Bの各々の
大きさ(面積)を基準にして重複領域の面積を正規化し
た値のうちの小さい方の値を重複度xとしている。この
ように、重複度xとして、顔候補領域の面積を基準にし
て重複領域の面積を正規化した値を用いることで、顔候
補領域の大きさに拘らず重複度を正確に数値化すること
ができる。
[0059]   x = min (SAB/ SA, SAB/ SB)… (1) In equation (1), min () is the minimum value in the parentheses.
S is an operator that represents selectingAB/ SAIs a candidate face
Area S of area AAArea S of the overlap area based on ABThe regular
Value, SAB/ SBIs the area S of the face candidate area BBBased on
And the area S of the overlap regionABIs a normalized value of
Expression (1) is calculated for each of the overlapping face candidate area pairs A and B.
Normalize the area of the overlapping area based on the size (area)
The smaller one of these values is taken as the degree of duplication x. this
As shown in FIG.
By using a value that normalizes the area of the overlapping area,
Accurately quantify the degree of overlap regardless of the size of the complementary region
You can

【0060】なお、(1)式において、SAB/SA 、S
AB/SB により求まる値は重複度合いが大きくなるに従
って(面積SABの値が増大するに従って)値が大きくな
るので、(1)式では、双方の値のうち小さい方の値
(より小さい重複度を表す値)を重複度xとして用いて
いる。これにより、例えば一方の顔候補領域が他方の顔
候補領域に内包されている等の場合にも重複度xの値が
極端に大きくなることを防止することができる。
In the equation (1), S AB / S A , S
Since value value obtained by AB / S B in accordance with degree of overlapping increases (according to the value of the area S AB is increased) becomes larger, (1), the smaller value of both values (smaller overlap A value representing the degree) is used as the degree of overlap x. This can prevent the value of the degree of overlap x from becoming extremely large, for example, even when one face candidate area is included in the other face candidate area.

【0061】また重複度xは、顔候補領域Aの重心位置
と、顔候補領域Bの重心位置との距離をLABとしたとき
に、次の(2)式又は(3)式に従って演算してもよ
い。
The degree of overlap x is calculated according to the following equation (2) or (3), where L AB is the distance between the barycentric position of the face candidate area A and the barycentric position of the face candidate area B. May be.

【0062】 x=max(LAB/√(SA ) ,LAB/√(SB )) …(2) x=max(LAB 2 /SA ,LAB 2 /SB ) …(3) (2)式及び(3)式において、max( )は括弧内の数値
の最大値を選択することを表す演算子であり、LAB/√
(SA ) 及びLAB 2 /SA は顔候補領域Aの面積SA
基準にして重心間距離LABを正規化した値、LAB/√
(SB )及びLAB 2 /SB は顔候補領域Bの面積SB
基準にして重心間距離LABを正規化した値であるので、
(2)式及び(3)式は、重複している顔候補領域対
A,Bの各々の大きさ(面積)を基準にして重心間距離
を正規化した値のうちの大きい方の値を重複度xとして
いる。このように、重複度xとして、顔候補領域の面積
を基準にして重心間距離を正規化した値を用いることに
よっても、顔候補領域の大きさに拘らず重複度を正確に
数値化することができる。
[0062]   x = max (LAB/ √ (SA), LAB/ √ (SB))… (2)   x = max (LAB 2/ SA, LAB 2/ SB)… (3) In formulas (2) and (3), max () is the value in parentheses.
Is an operator that represents selecting the maximum value ofAB/ √
(SA) And LAB 2/ SAIs the area S of the face candidate area AATo
Center-to-center distance LABIs the normalized value of LAB/ √
(SB) And LAB 2/ SBIs the area S of the face candidate area BBTo
Center-to-center distance LABIs a normalized value of
Equations (2) and (3) are used for overlapping face candidate area pairs.
Distance between centers of gravity based on the size (area) of each of A and B
The larger value of the normalized values of
There is. Thus, as the degree of overlap x, the area of the face candidate region
Using a value that normalizes the distance between the centers of gravity based on
Therefore, the degree of overlap can be accurately determined regardless of the size of the face candidate area.
It can be digitized.

【0063】なお(2)式及び(3)式において、LAB
/√(SA ) ,LAB/√(SB )、或いはLAB 2
A ,LAB 2 /SB により求まる値は重複度合いが大き
くなるに従って(重心間距離LABの値が減少するに従っ
て)値が小さくなるので、(2)式及び(3)式では双
方の値のうち大きい方の値(より小さい重複度を表す
値)を重複度xとして用いている。これにより、例えば
一方の顔候補領域が他方の顔候補領域に内包されている
等の場合に重複度xの値が極端に小さくなることを防止
することができる。
In equations (2) and (3), L AB
/ √ (S A ), L AB / √ (S B ), or L AB 2 /
Since the value obtained by S A , L AB 2 / S B becomes smaller as the degree of overlap becomes larger (as the value of the center-of-center distance L AB decreases), both equations (2) and (3) are used. The larger one of the values (the value representing the smaller degree of duplication) is used as the degree of duplication x. As a result, it is possible to prevent the value of the degree of overlap x from becoming extremely small when, for example, one face candidate area is included in the other face candidate area.

【0064】また(2)式及び(3)式は、請求項2に
記載の「候補領域の距離」として一対の顔候補領域の重
心間距離を適用した場合であるが、これに限定されるも
のではなく、「候補領域の距離」として一対の顔候補領
域の各々の位置を代表する代表点間の距離を適用し、こ
れを正規化した値を用いて重複度xを求めるようにして
もよい。この代表点としては、例えば顔候補領域に外接
又は内接する所定形状(例えばN角形状(N≧3)や円
形状(真円でも楕円でもよい))の図形の中心に相当する
点、或いは予め設定した特定の演算方法により求まる点
を採用することができる。
Expressions (2) and (3) are the case where the distance between the centers of gravity of a pair of face candidate areas is applied as the "distance between candidate areas" described in claim 2, but the invention is not limited to this. Instead of applying the distance between representative points representing each position of the pair of face candidate areas as the “distance of the candidate area”, the degree of overlap x may be obtained by using a value obtained by normalizing the distance. Good. As the representative point, for example, a point corresponding to the center of a predetermined shape circumscribing or inscribing the face candidate area (for example, N-sided shape (N ≧ 3) or circular shape (may be a perfect circle or an ellipse)), or in advance It is possible to adopt a point obtained by the set specific calculation method.

【0065】なお、予め設定した特定の演算方法により
求まる点としては、一例として、顔候補領域に外接する
N角形状領域(例えば矩形状領域)の特定の頂点、前記
N角形状領域の複数の頂点の重心に相当する点、顔候補
領域に外接する楕円状領域の長軸方向に沿った上側(顔
の上下方向の上側)の端部から、楕円状領域の長軸方向
に沿った長さのX%に相当する長さだけ隔てた位置に相
当する点等が挙げられる。
As a point obtained by a specific calculation method set in advance, for example, a specific vertex of an N-shaped area (for example, a rectangular area) circumscribing the face candidate area, and a plurality of N-shaped areas A point corresponding to the center of gravity of the apex, the length along the long axis direction of the elliptical area from the upper end (upper side of the face in the vertical direction) of the elliptical area circumscribing the face candidate area And points corresponding to positions separated by a length corresponding to X% of

【0066】更に、重複度xは、顔候補領域Aの所定方
向(例えば画像の長辺方向や短辺方向)に沿った長さを
A 、顔候補領域Bの所定方向に沿った長さをLB 、重
複領域の所定方向に沿った長さをLAB’としたときに、
次の(4)式に従って演算してもよい。
Further, the degree of overlap x is L A , the length of the face candidate area A along a predetermined direction (for example, the long side direction or the short side direction of the image), and the length of the face candidate area B along the predetermined direction. Is L B , and the length along the predetermined direction of the overlapping region is L AB ',
The calculation may be performed according to the following equation (4).

【0067】 x=min(LAB’/LA ,LAB’/LB ) …(4) このように、重複度xとして、顔候補領域の所定方向に
沿った長さを基準にして重複領域の所定方向に沿った長
さを正規化した値を用いることによっても、顔候補領域
の大きさに拘らず重複度を正確に数値化することができ
る。
[0067] x = min (L AB '/ L A, L AB' / L B) ... (4) Thus, as the degree of overlapping x, overlapping relative to the length along the predetermined direction of the face candidate region By using a value obtained by normalizing the length of the region along the predetermined direction, the degree of overlap can be accurately digitized regardless of the size of the face candidate region.

【0068】また、(1)式、(2)式(又は(3)
式)、及び(4)式のうちの2つ以上の式を用いて求め
た重複度xの平均値や加重平均値を最終的な重複度xと
してもよい。但し(2)式や(3)式により求まる重複
度xと、(1)式や(4)式により求まる重複度xと
は、重複度合いの変化に対する値の変化方向が異なって
いるので、平均値又は加重平均値の演算に際しては、値
の変化方向が揃うように一方の値を変換する必要があ
る。
Further, the expressions (1) and (2) (or (3)
The average value or weighted average value of the multiplicity x obtained by using two or more of the equations) and (4) may be used as the final multiplicity x. However, since the degree of overlap x obtained by the equations (2) and (3) and the degree of overlap x obtained by the equations (1) and (4) are different in the changing direction of the value with respect to the change of the degree of overlap, the average When calculating the value or the weighted average value, it is necessary to convert one value so that the changing directions of the values are aligned.

【0069】また、加重平均値の演算における、各演算
式によって求めた重複度に付与する重みについては、各
演算式により求めた重複度を用いて予め顔領域抽出を行
い、実際の顔領域との一致度を各演算式毎に評価して定
めることができる。例えば本願発明者は、(1)式と
(2)式(又は(3)式)については、(1)式により
求まる重複度を用いた方が実際の顔領域との一致度が高
いことが多いことを実験により確認しており、(1)式
により求まる重複度と(2)式(又は(3)式)により
求まる重複度の加重平均値を重複度xとする場合には、
(1)式により求まる重複度に付与する重みを(2)式
(又は(3)式)により求まる重複度に付与する重みよ
りも大きくすることが好ましい。
Further, regarding the weight given to the degree of overlap obtained by each arithmetic expression in the calculation of the weighted average value, face area extraction is performed in advance using the degree of overlap obtained by each arithmetic expression to determine the actual face area. The degree of coincidence can be evaluated and determined for each arithmetic expression. For example, the inventor of the present application may find that the degree of coincidence with the actual face area is higher in the equations (1) and (2) (or (3)) when the degree of overlap obtained by the equation (1) is used. It has been confirmed by experimentation that the number is large, and when the weighted average value of the multiplicity obtained by the equation (1) and the multiplicity obtained by the equation (2) (or the equation (3)) is taken as the multiplicity x,
It is preferable that the weight given to the multiplicity obtained by the equation (1) is made larger than the weight given to the multiplicity obtained by the equation (2) (or the equation (3)).

【0070】また、各演算式によって求めた重複度の加
重平均値を重複度xとすることに代えて、各演算式によ
って求めた重複度を重み点数P(詳細は後述)に変換
し、各演算式に対応する重み点数Pの加重平均値を最終
的な重み点数として設定するようにしてもよい。
Further, instead of using the weighted average value of the degree of duplication obtained by each arithmetic expression as the degree of duplication x, the degree of duplication obtained by each arithmetic expression is converted into a weight score P (details will be described later), and A weighted average value of the number of weight points P corresponding to the arithmetic expression may be set as the final number of weight points.

【0071】次のステップ110では、上記のようにし
て演算した重複度xに基づいて、ステップ106で取り
出した処理対象の顔候補領域対に付与する重み点数Pを
決定する。この重み点数Pの決定は、先のステップ10
8において、顔候補領域の重複度合いが大きくなるに従
って値が大きくなるように重複度xが演算された場合に
は、例として図4(B)に示すように、重複度xの値が
増加するに伴って重み点数Pが高くなるように変換特性
が定められたマップを用い、該マップを用いて重複度x
を重み点数Pに変換することで行うことができる。一
方、ステップ108において、顔候補領域の重複度合い
が大きくなるに従って値が小さくなるように重複度xが
演算された場合には、例として図4(C)に示すよう
に、重複度xの値が増加するに伴って重み点数Pが低く
なるように変換特性が定められたマップを用い、該マッ
プを用いて重複度xを重み点数Pに変換することで重み
点数Pを決定することができる。
In the next step 110, the number of weight points P to be given to the face candidate area pair to be processed extracted in step 106 is determined based on the degree of overlap x calculated as described above. The determination of the weight score P is performed in the previous step 10
In FIG. 8, when the overlapping degree x is calculated such that the value increases as the overlapping degree of the face candidate regions increases, the value of the overlapping degree x increases as shown in FIG. 4B as an example. A map whose conversion characteristic is determined so that the number P of weights increases with
Can be carried out by converting into the weighting point P. On the other hand, in step 108, when the degree of overlap x is calculated such that the value decreases as the degree of overlap of the face candidate area increases, as shown in FIG. 4C as an example, the value of the degree of overlap x It is possible to determine the weight score P by using a map whose conversion characteristic is determined such that the weight score P decreases as the value increases, and the degree of overlap x is converted into the weight score P using the map. .

【0072】なお、図4(B)及び(C)に示す変換特
性は単なる一例であり、例えば図4(B)及び(C)に
示す変換特性では重複度xの変化に対して重み点数Pが
変化しない不感領域が存在するが、このような不感領域
のない変換特性であってもよい。また、重複度xの変化
に対して重み点数Pが非線形に変化する変換特性を用い
てもよく、重複度合いが大きくなるに伴って重み点数P
が増加する変換特性であればよい。
The conversion characteristics shown in FIGS. 4B and 4C are merely examples. For example, in the conversion characteristics shown in FIGS. 4B and 4C, the number of weight points P is changed with respect to the change of the degree of overlap x. Although there is a dead region in which does not change, a conversion characteristic without such a dead region may be used. Alternatively, a conversion characteristic may be used in which the weight point P changes non-linearly with respect to the change of the degree of overlap x, and the weight point P is increased as the degree of overlap increases.
It suffices if the conversion characteristic increases.

【0073】上記のようにして重み点数Pを決定する
と、処理対象の顔候補領域対に対して先に決定した重み
点数Pを各々付与し(ステップ112)、次のステップ
114において、互いに重複している全ての顔候補領域
対に対してステップ106〜112の処理を行ったか否
か判定する。判定が否定された場合にはステップ106
に戻り、互いに重複している他の顔候補領域対に対して
ステップ106〜112の処理を繰り返す。これによ
り、互いに重複している全ての顔候補領域対に対し、重
み点数Pが各々付与されることになる。
When the number of weight points P is determined as described above, the previously determined weight points P are assigned to the face candidate area pairs to be processed (step 112), and in the next step 114, they are overlapped with each other. It is determined whether or not the processes of steps 106 to 112 have been performed for all the face candidate area pairs that are present. If the determination is negative, step 106
Then, the processing of steps 106 to 112 is repeated for other pairs of face candidate areas that overlap each other. As a result, the weighting points P are given to all the face candidate area pairs that overlap each other.

【0074】ステップ114の判定が肯定されるとステ
ップ116へ移行し、各顔候補領域に対して付与した重
み点数Pを各顔候補領域毎に積算し、各顔候補領域毎に
積算値を重み点数Pとして設定する。例えば処理対象の
画像から図3に示す顔候補領域A〜Dが抽出された場
合、顔候補領域Dについては他の顔候補領域と重複して
いないため重み点数Pが設定されず(重み点数PD
0)、顔候補領域A〜Cについては2個の顔候補領域と
各々重複しているため、各々2つの重み点数Pが積算さ
れて設定される。このうち、他の顔候補領域との重複度
合いが小さい顔候補領域Cは重み点数PC が最も小さく
なり、顔候補領域Cとの重複度合いが顔候補領域Aより
も大きい顔候補領域B(図3において実際の顔領域との
一致度が最も高い顔候補領域)の重み点数PB が最大と
なる。
If the determination at step 114 is affirmative, the routine proceeds to step 116, where the weighted points P given to each face candidate area are added up for each face candidate area, and the integrated value is weighted for each face candidate area. Set as point P. For example, when the face candidate areas A to D shown in FIG. 3 are extracted from the image to be processed, the weight point P is not set for the face candidate area D because it does not overlap with other face candidate areas (the weight point P D =
0), since the face candidate areas A to C overlap with the two face candidate areas, respectively, two weight points P are accumulated and set. Of these, the face candidate area C having the smallest degree of overlap with other face candidate areas has the smallest weight score P C , and the face candidate area B having the degree of overlap with the face candidate area C larger than that of the face candidate area A (see FIG. 3, the weighting point P B of the face candidate area having the highest degree of coincidence with the actual face area) becomes maximum.

【0075】上記のステップ116で各顔候補領域に対
して設定される重み点数Pは、人物の顔に相当する領域
としての確度の評価を表す評価値に対応しており、他の
顔候補領域と重複している顔候補領域に対する重み点数
Pは、他の顔候補領域と重複していない顔候補領域に対
する重み点数よりも高い値になると共に、他の顔候補領
域との重複度合いが高くなるに従って更に高い値にな
る。なお、ステップ116はステップ110、112と
共に請求項9に記載の評価手段に対応している。
The weight point P set for each face candidate area in the above step 116 corresponds to an evaluation value representing the evaluation of accuracy as an area corresponding to a person's face, and other face candidate areas. The weight score P for the face candidate area that overlaps with is higher than the weight score for the face candidate area that does not overlap with other face candidate areas, and the degree of overlap with other face candidate areas is high. The higher the value. The step 116 corresponds to the evaluation means described in claim 9 together with the steps 110 and 112.

【0076】ところで、ステップ100で抽出された顔
候補領域の中に濃度が極端に高い又は極端に低い顔候補
領域が存在しており、該顔候補領域が実際には顔領域で
はなかった場合、該顔候補領域の濃度が、顔領域の抽出
を行った後に行われる後処理の処理結果に悪影響を及ぼ
す可能性が高い。このため次のステップ118では、ス
テップ100で抽出された顔候補領域の中に、領域中の
濃度Mが極端に高い又は極端に低い顔候補領域が有るか
否か判定する。
By the way, when there is a face candidate area having extremely high or extremely low density in the face candidate areas extracted in step 100 and the face candidate area is not actually a face area, It is highly possible that the density of the face candidate area adversely affects the processing result of the post-processing performed after the face area is extracted. Therefore, in the next step 118, it is determined whether or not the face candidate area extracted in step 100 includes a face candidate area in which the density M in the area is extremely high or extremely low.

【0077】なお濃度Mは、領域内平均濃度(絶対値)
であってもよいし、処理対象の画像の全画面平均濃度に
対する相対濃度であってもよく、上記判定は、濃度M
を、濃度Mが極端に高い値か否かを判定するための閾値
THHIGH、及び濃度Mが極端に低い値か否かを判定するた
めの閾値THLOWと各々比較することで行うことができ
る。なお、閾値THHIGHは請求項8に記載の第1の所定
値、閾値THLOWは請求項8に記載の第2の所定値に対応
している。
The density M is the average density (absolute value) in the area.
Or the relative density with respect to the average density over the entire screen of the image to be processed.
Is a threshold for determining whether or not the density M is extremely high.
This can be performed by comparing TH HIGH and a threshold TH LOW for determining whether or not the density M is an extremely low value. The threshold value TH HIGH corresponds to the first predetermined value described in claim 8, and the threshold value TH LOW corresponds to the second predetermined value described in claim 8.

【0078】全ての顔候補領域が濃度M<閾値THHIGH
つ濃度M>閾値THLOWであった場合には、濃度が極端に
高い又は極端に低い顔候補領域は存在しないと判断でき
るので、ステップ118の判定が否定されてステップ1
24へ移行する。一方、濃度M>閾値THHIGH又は濃度M
<閾値THLOW を満足する顔候補領域が存在していた場
合、該顔候補領域は濃度Mが極端に高い又は極端に低い
と判断できるので、ステップ118の判定が肯定されて
ステップ120へ移行し、濃度Mが極端に高い又は極端
に低いと判断した顔候補領域の重み点数Pが低下するよ
うに修正した後にステップ124へ移行する。
If all the face candidate areas have the density M <threshold TH HIGH and the density M> threshold TH LOW , it can be judged that there is no face candidate area having extremely high or extremely low density. The determination of step 118 is denied and step 1
Move to 24. On the other hand, density M> threshold TH HIGH or density M
<When there is a face candidate region that satisfies the threshold value TH LOW , it can be determined that the density M of the face candidate region is extremely high or extremely low. Therefore, the determination at step 118 is affirmative and the process proceeds to step 120. , The density M is corrected to be extremely high or extremely low, and the weighting point P of the face candidate area is corrected so as to decrease, and then the process proceeds to step 124.

【0079】この重み点数Pの修正は、例えば図5
(A)に示すマップを用いて行うことができる。このマ
ップは、初期(当初の)重み点数を横軸に、修正後の重
み点数を縦軸にとった座標上で、原点を通りかつ傾きが
1よりも小さい直線によって表される変換特性を有して
いる。上記のようなマップを用いて重み点数Pを変換
(下方修正)することにより、濃度Mが極端に高い又は
極端に低い顔候補領域が実際には顔領域ではなかった場
合にも、該顔候補領域が後処理に及ぼす悪影響の程度を
小さくすることができる。なお、ステップ118及びス
テップ120は請求項8の発明に対応している。
The correction of the weight point P can be performed by, for example, referring to FIG.
This can be done using the map shown in (A). This map has a conversion characteristic represented by a straight line that passes through the origin and has a slope smaller than 1 on the coordinate with the initial (original) number of weights on the horizontal axis and the corrected number of weights on the vertical axis. is doing. By converting (downward modifying) the number of weights P using the map as described above, even if the face candidate region with extremely high or extremely low density M is not actually the face region, It is possible to reduce the degree of the adverse effect of the region on the post-treatment. Note that step 118 and step 120 correspond to the invention of claim 8.

【0080】一方、ステップ100で抽出された顔候補
領域の中に、画像上で互いに重複している顔候補領域が
無い場合には、先のステップ104の判定が否定されて
ステップ122へ移行し、各顔候補領域の重み点数Pと
して一定値を設定してステップ124へ移行する。
On the other hand, if there are no face candidate areas that overlap each other on the image among the face candidate areas extracted in step 100, the determination in step 104 above is denied and the process proceeds to step 122. , A constant value is set as the weighted score P of each face candidate area, and the process proceeds to step 124.

【0081】ステップ124では、各顔候補領域の重み
点数Pを顔領域判定用の閾値THFと各々比較し、重み
点数Pが閾値THF 以上の顔候補領域を顔領域として抽
出(選択)する。ステップ104の判定が肯定された場
合(互いに重複している顔候補領域があった場合)に
は、他の顔候補領域と重複しておりかつ重複度合いの高
い顔候補領域に対する重み点数が高くされているので、
顔領域である確度が高い顔候補領域が顔領域として抽出
されることになる。なお、ステップ124は請求項3の
発明に対応している。
In step 124, the weighted point number P of each face candidate area is compared with the threshold value TH F for face area determination, and the face candidate area with the weighted point number P equal to or greater than the threshold value TH F is extracted (selected) as a face area. . When the determination in step 104 is affirmative (when there are face candidate areas that overlap each other), the weighting points for the face candidate areas that overlap with other face candidate areas and have a high degree of overlap are increased. Because
A face candidate area having a high probability of being a face area is extracted as a face area. The step 124 corresponds to the invention of claim 3.

【0082】また次のステップ126では、次の(5)
式又は(6)式に従って処理対象の画像の顔領域濃度M
faceを演算し、顔領域抽出・濃度演算処理を終了する。
In the next step 126, the following (5)
The face area density M of the image to be processed according to equation (6)
The face is calculated, and the face area extraction / density calculation processing ends.

【0083】[0083]

【数1】 [Equation 1]

【0084】但し、iは各顔候補領域を識別するための
符号、Nは顔候補領域の総数、Miは顔候補領域iの濃
度、Pi は顔候補領域iの重み点数、Si は顔候補
領域iの面積である。
Here, i is a code for identifying each face candidate area, N is the total number of face candidate areas, Mi is the density of the face candidate area i, Pi is the weight score of the face candidate area i, and Si is the face candidate area. The area of i.

【0085】(5)式及び(6)式より明らかなよう
に、顔領域濃度Mfaceは各顔候補領域の濃度Mの加重平
均値であり、(5)式では各顔候補領域の重み点数Pに
基づいて各顔候補領域を重み付けしており、(6)式で
は重み点数P及び面積Sに基づいて各顔候補領域を重み
付けしている。ステップ104の判定が肯定された場合
(互いに重複している顔候補領域があった場合)には、
他の顔候補領域と重複しておりかつ重複度合いの高い顔
候補領域に対する重み点数が高くされているので、顔領
域濃度Mfaceは各顔候補領域の濃度Mの平均値よりも、
実際の顔領域の濃度に近い値となる。
As is clear from the equations (5) and (6), the face area density Mface is a weighted average value of the densities M of the face candidate areas, and in the expression (5), the weighted score P of each face candidate area is P. Each face candidate area is weighted based on the equation (6), and each face candidate area is weighted based on the weight score P and the area S in the equation (6). When the determination in step 104 is affirmative (when there are face candidate areas overlapping each other),
Since the face candidate area that overlaps with other face candidate areas and has a high degree of overlap has a high weight point, the face area density Mface is higher than the average value of the density M of each face candidate area.
The value is close to the actual density of the face area.

【0086】ところで、面積が比較的小さい顔候補領域
は顔領域である確率が比較的低いことが経験的に知られ
ているが、前出の(5)式では各顔候補領域の面積を考
慮せずに顔領域濃度Mfaceを演算しているので、顔領域
濃度Mfaceの演算対象の顔候補領域の中に、面積が比較
的小さく実際には顔領域ではない顔候補領域が含まれて
いた場合に、該顔候補領域の濃度Mが顔領域濃度Mface
に及ぼす影響が大きい。このため(5)式を用いて顔領
域濃度Mfaceを演算する場合((6)式を用いる場合でも
よい)、例えば面積Sが所定値以下、或いは他の顔候補
領域と比較して面積Sが相対的に小さい顔候補領域につ
いては、顔領域濃度Mfaceの演算対象から除外するか、
重み点数Pの値を小さくして顔領域濃度Mfaceを演算す
るようにしてもよい。これにより、面積が比較的小さく
実際には顔領域ではない顔候補領域の濃度Mが顔領域濃
度Mfaceに及ぼす影響を軽減することができる。
By the way, it is empirically known that a face candidate region having a relatively small area has a relatively low probability of being a face region, but in the above equation (5), the area of each face candidate region is considered. Since the face area density Mface is calculated without performing the calculation, the face candidate area for which the face area density Mface is calculated includes a face candidate area that is relatively small in area and is not actually a face area. And the density M of the face candidate area is the face area density Mface
Has a great influence on. Therefore, when the face area density Mface is calculated by using the expression (5) (the expression (6) may be used), for example, the area S is equal to or less than a predetermined value, or the area S is smaller than other face candidate areas. The relatively small face candidate area is excluded from the calculation target of the face area density Mface, or
The face area density Mface may be calculated by reducing the value of the number of weight points P. As a result, it is possible to reduce the influence of the density M of the face candidate area, which has a relatively small area and is not actually a face area, on the face area density Mface.

【0087】また、前出の(6)式では面積Sが大きい
顔候補領域の重みが相対的に大きくなるように顔領域濃
度Mfaceを演算しているので、顔領域濃度Mfaceの演算
対象の顔候補領域の中に、面積が比較的大きく実際には
顔領域ではない顔候補領域が含まれていた場合に、該顔
候補領域の濃度Mが顔領域濃度Mfaceに及ぼす影響が大
きい。このため(6)式を用いて顔領域濃度Mfaceを演
算する場合、例えば面積Sの値に対して上限値Smax
設定し、面積Sの値が上限値Smaxよりも大きい顔候補
領域については、面積Sの値を上限値Smaxに置き換え
る(クリッピングする)か、或いは重み点数Pの値を小
さくするようにしてもよい。これにより、面積が比較的
大きく実際には顔領域ではない顔候補領域の濃度Mが顔
領域濃度Mfaceに及ぼす影響を軽減することができる。
なお、上記のように面積Sの値が上限値Smaxよりも大
きい顔候補領域の重み点数Pの値を小さくすることは
(5)式を用いて顔領域濃度Mfaceを演算する場合にも
適用可能である。
In the above equation (6), since the face area density Mface is calculated so that the weight of the face candidate area having a large area S is relatively large, the face to be calculated for the face area density Mface is calculated. When the candidate area includes a face candidate area having a relatively large area and not actually a face area, the density M of the face candidate area has a large influence on the face area density Mface. Therefore, when the face area density Mface is calculated using the equation (6), for example, an upper limit value S max is set for the value of the area S, and a face candidate area in which the value of the area S is larger than the upper limit value S max. May replace the value of the area S with the upper limit value S max (clipping), or may reduce the value of the number of weight points P. As a result, it is possible to reduce the influence of the density M of the face candidate area, which has a relatively large area and is not actually a face area, on the face area density Mface.
It should be noted that reducing the value of the weighting point P of the face candidate area in which the value of the area S is larger than the upper limit value S max as described above is also applied to the case of calculating the face area density Mface using the equation (5). It is possible.

【0088】なお、ステップ126は請求項4の発明に
対応している。また、顔領域濃度Mfaceは請求項4に記
載の主要部の画像特徴量に対応しているが、主要部の画
像特徴量は濃度に限定されるものでなく、公知の種々の
画像特徴量を適用可能であることは言うまでもない。
The step 126 corresponds to the invention of claim 4. Further, the face area density Mface corresponds to the image feature amount of the main part described in claim 4, but the image feature amount of the main part is not limited to the density, and various known image feature amounts may be used. It goes without saying that it is applicable.

【0089】上記の顔領域抽出・濃度演算処理を行う
と、オートセットアップエンジン44は、更に、イメー
ジプロセッサ40で実行される各種の画像処理の処理条
件を演算するが、顔領域抽出・濃度演算処理の処理結果
は一部の画像処理の処理条件の演算に利用される。例え
ば先のステップ124で抽出された顔領域は、イメージ
プロセッサ40で実行される顔領域又はその一部のみを
対象とした画像処理(例えば顔領域に対するシャープネ
ス補正や赤目補正等)の演算に利用され、前記画像処理
が顔領域のみを対象として行われるように処理条件が設
定される。また、先のステップ126で演算された顔領
域濃度Mfaceは、例えばイメージプロセッサ40で実行
される画像全体を対象とした画像処理(例えば色・濃度
補正等)に利用され、例えば顔領域濃度Mfaceが所定濃
度になるように濃度補正条件等の処理条件が演算され
る。
When the face area extraction / density calculation processing described above is performed, the auto setup engine 44 further calculates processing conditions for various image processing executed by the image processor 40. The processing result of is used for the calculation of the processing condition of a part of the image processing. For example, the face area extracted in the previous step 124 is used for calculation of image processing (for example, sharpness correction or red-eye correction for the face area) executed by the image processor 40 for only the face area or a part thereof. The processing condition is set so that the image processing is performed only on the face area. The face area density Mface calculated in step 126 is used for image processing (for example, color / density correction) for the entire image executed by the image processor 40. Processing conditions such as density correction conditions are calculated so as to obtain a predetermined density.

【0090】先にも説明したように、顔領域の抽出及び
顔領域濃度Mfaceは重複度xに基づいて設定した重み点
数を用いて行っているので、顔候補領域抽出処理によっ
て抽出された顔候補領域の中に、実際には顔領域でない
顔候補領域が誤抽出により混在していたとしても、実際
には顔領域でない顔候補領域が顔領域として抽出される
確率が大幅に低減されると共に、実際には顔領域でない
顔候補領域の濃度によって顔領域濃度が大幅に変化する
ことも防止することができる。従って、顔領域の抽出結
果又は顔領域濃度Mfaceを利用して処理条件が演算され
る各画像処理に対しても適正な処理条件が得られ、ファ
インスキャン画像データを対象としてイメージプロセッ
サ40で実行される各画像処理についても適正な処理結
果が得られる。
As described above, since the face area extraction and the face area density Mface are performed using the weighted points set based on the degree of overlap x, the face candidate extracted by the face candidate area extraction processing is performed. Even if a face candidate region that is not actually a face region is mixed in the region due to erroneous extraction, the probability that a face candidate region that is not actually a face region is actually extracted as a face region is greatly reduced, It is also possible to prevent the face area density from changing significantly depending on the density of the face candidate area that is not actually the face area. Therefore, appropriate processing conditions are obtained even for each image processing in which the processing conditions are calculated using the face area extraction result or the face area density Mface, and the image processing is executed by the image processor 40 for fine scan image data. Appropriate processing results can be obtained for each image processing.

【0091】なお、上記では濃度が極端に高い又は極端
に低い顔候補領域に対し、重み点数が低下するように修
正していたが、これに限定されるものではなく、顔候補
領域から顔領域を抽出する処理を行う場合には、該顔領
域の抽出において、濃度が極端に高い又は極端に低い顔
候補領域に対してのみ、或いは全ての顔候補領域に対し
て、例として図5(B)に示すように顔領域判定用の閾
値THF が高くなるように閾値THF を変更してもよ
い。これは、請求項8に記載の「選択の基準を高くす
る」ことに対応している。これにより、濃度が極端に高
い又は極端に低い顔候補領域が顔領域として抽出されに
くくすることができる。なお閾値THF の変更量は一定
値としてもよいし、濃度が極端に高い又は極端に低いと
判断した顔候補領域の濃度Mと、濃度Mが極端に高い又
は極端に低いか否かを判定するための閾値THHIGH,TH
LOW と、の差に応じて閾値THF の変更量を変化させて
もよい。また上記に代えて、演算した重複度xを重み点
数Pに変換する際に、処理対象の顔候補領域対のうちの
少なくとも一方の顔候補領域の濃度Mが極端に高い又は
低い場合には、前記処理対象の顔候補領域対に付与する
重み点数Pを抑制するようにしてもよい。
In the above description, the face candidate area having extremely high or extremely low density is corrected so that the weighting point is reduced. However, the present invention is not limited to this, and the face candidate area is changed to the face area. In the extraction of the face area, only the face candidate areas having extremely high or extremely low density, or all the face candidate areas are extracted as shown in FIG. ), The threshold TH F may be changed so that the threshold TH F for face area determination becomes higher. This corresponds to “raising the selection criterion” described in claim 8. As a result, it is possible to make it difficult for a face candidate region having extremely high or extremely low density to be extracted as a face region. The amount of change in the threshold TH F may be a constant value, and it is determined whether the density M of the face candidate region whose density is judged to be extremely high or extremely low and whether the density M is extremely high or extremely low. threshold TH HIGH, TH for
The amount of change in the threshold TH F may be changed according to the difference between LOW and LOW . Alternatively, instead of the above, when converting the calculated degree of overlap x into the weighted score P, if the density M of at least one face candidate region of the face candidate region pair to be processed is extremely high or low, You may make it suppress the weighting point P given to the said face candidate area pair of a process target.

【0092】また、各顔候補領域に設定する重み点数
P、顔領域判定用の閾値THF 、或いは顔領域濃度Mfa
ceにおいて各顔候補領域の濃度Mに付与する重みは、顔
領域抽出・濃度演算処理の処理結果を利用して行われる
画像処理の種類に応じて変更するようにしてもよい。な
お、以下で説明する処理は請求項5の発明に対応してい
る。
The number of weight points P set for each face candidate area, the threshold TH F for face area determination, or the face area density Mfa
The weight given to the density M of each face candidate area in ce may be changed according to the type of image processing performed using the processing result of the face area extraction / density calculation processing. The processing described below corresponds to the invention of claim 5.

【0093】例えば顔領域抽出・濃度演算処理による顔
領域の抽出結果を利用して、イメージプロセッサ40に
おいて、抽出された顔領域に対してのみ局所的にエッジ
強調フィルタをかけて顔領域のシャープネスを強調する
シャープネス強調処理が行われる場合、シャープネス強
調の程度やフィルタの種類にも依存するが、実際には顔
領域でない領域にもシャープネスの強調が行われたとし
ても視覚上は悪影響が小さい(目立たない)ことがあ
る。このような場合には、顔領域判定用の閾値THF
値を通常よりも小さくし(すなわち顔候補領域の選択の
基準を変更し)、より多くの顔候補領域が顔領域と判定
されるようにしてもよい。顔領域判定用の閾値THF
値を低くするに従って、実際の顔領域に対応する顔候補
領域が顔領域でないと誤判定される確率が低くなるの
で、上記により、画像中の顔領域に対して漏れなくシャ
ープネス強調処理を施すことができる。
For example, by utilizing the face area extraction result by the face area extraction / density calculation processing, the image processor 40 locally applies an edge enhancement filter only to the extracted face area to increase the sharpness of the face area. When the sharpness enhancement processing is performed, it depends on the degree of sharpness enhancement and the type of filter, but even if the sharpness enhancement is actually applied to a region that is not the face area, the visual effect is small (conspicuous). No) In such a case, the threshold value TH F for face area determination is set smaller than usual (that is, the reference for selecting face candidate areas is changed), and more face candidate areas are determined to be face areas. You may do it. The lower the threshold value TH F for face area determination, the lower the probability that a face candidate area corresponding to an actual face area will be erroneously determined to be not a face area. It is possible to perform sharpness enhancement processing without omission.

【0094】また、顔領域判定用の閾値THF の値を変
更することに代えて、演算により求めた重複度xに対
し、重み点数Pとして通常よりも大きな値を設定する
(すなわち各顔候補領域に対する評価の基準を変更す
る)ことで、より多くの顔候補領域が顔領域と判定され
るようにすることも可能である。特にシャープネス強調
処理として、重み点数Pが大きくなるに従ってシャープ
ネスの強調度合いを強くする処理が行われる場合には、
重み点数Pを上記のように設定することでシャープネス
の強調度合いを強めにコントロールすることも可能とな
る。
Further, instead of changing the value of the threshold value TH F for face area determination, a larger value than usual is set as the weighting point P for the degree of overlap x calculated by calculation (that is, each face candidate). It is also possible to determine that more face candidate areas are face areas by changing the evaluation criteria for the areas). In particular, as the sharpness enhancement processing, when the processing of increasing the sharpness enhancement degree as the number of weight points P increases,
By setting the number of weight points P as described above, it is possible to strongly control the degree of sharpness enhancement.

【0095】また例えば、顔領域抽出・濃度演算処理に
よる顔領域の抽出結果及び顔領域濃度Mfaceを利用し
て、抽出された顔領域に対してのみ顔領域濃度Mfaceに
基づき局所的に濃度を補正する濃度補正処理が行われる
場合、濃度補正の程度にも依存するが、実際には顔領域
でない領域にも濃度補正が行われたとしても視覚上は悪
影響が小さい(目立たない)ことがある。このような場
合には、顔領域判定用の閾値THF の値を通常よりも小
さくし、より多くの顔候補領域が顔領域と判定されるよ
うにしてもよい。顔領域判定用の閾値THF の値を低く
するに従って、実際の顔領域に対応する顔候補領域が顔
領域でないと誤判定される確率が低くなるので、上記に
より、画像中の顔領域に対して漏れなく濃度補正処理を
施すことができる。
Further, for example, using the face area extraction result by the face area extraction / density calculation processing and the face area density Mface, the density is locally corrected based on the face area density Mface only for the extracted face area. When the density correction process is performed, depending on the degree of the density correction, even if the density correction is actually performed on a region other than the face region, the adverse effect on the eyes may be small (not noticeable). In such a case, the value of the threshold TH F for face area determination may be set smaller than usual so that more face candidate areas are determined to be face areas. The lower the threshold value TH F for face area determination, the lower the probability that a face candidate area corresponding to an actual face area will be erroneously determined to be not a face area. The density correction processing can be performed without omission.

【0096】また、顔領域判定用の閾値THF の値を変
更することに代えて、演算により求めた重複度xに対
し、重み点数Pとして通常よりも大きな値を設定するこ
とで、より多くの顔候補領域が顔領域と判定されるよう
にすることも可能である。特に濃度補正処理として、重
み点数Pが大きくなるに従って濃度の補正度合いを強く
する処理が行われる場合には、重み点数Pを上記のよう
に設定することで濃度の補正度合いを強めにコントロー
ルすることも可能となる。
Further, instead of changing the value of the threshold value TH F for face area determination, a larger value than usual is set as the weighting point P for the multiplicity x obtained by calculation, so that more It is also possible to determine that the face candidate area is a face area. In particular, as the density correction processing, when the processing for increasing the density correction degree as the weighting point number P increases, the density correction degree is strongly controlled by setting the weighting point number P as described above. Will also be possible.

【0097】上記の説明は、顔領域の抽出において、実
際には顔領域でない領域を誤って顔領域として抽出した
場合にも影響が小さい画像処理が行われる場合である
が、逆に実際には顔領域でない領域を誤って顔領域とし
て抽出した場合に多大な影響を受ける画像処理が行われ
る場合には、例えば顔領域判定用の閾値THF の値を通
常よりも大きくしたり、重複度xに対し重み点数Pとし
て通常よりも小さな値を設定することで、顔領域として
の確度がより高い顔候補領域のみが顔領域として抽出さ
れるようにすることも可能である。
In the above description, when the face area is extracted, the image processing that has a small influence is performed even when the area that is not actually the face area is erroneously extracted as the face area. When image processing that is greatly affected when a region that is not a face region is mistakenly extracted as a face region is performed, for example, the value of the threshold TH F for face region determination may be set higher than usual, or the degree of overlap x On the other hand, by setting the weight point P to a value smaller than usual, it is possible to extract only the face candidate area having higher accuracy as the face area as the face area.

【0098】また、顔領域濃度についても、例えば次の
(7)式に示すように、先の(5)式((6)式でもよ
い)で求まる顔領域濃度Mfaceと、他の画像特徴量D
(例えば画像全体の平均濃度、非顔候補領域の平均濃度
等)との加重平均値Mface’(但し、αF は顔領域濃度
Mfaceに対する重み係数、α0 は画像特徴量Dに対する
重み係数)を顔領域濃度として演算する場合、演算した
顔領域濃度を利用して行われる画像処理の種類に応じて
重み係数αF ,α0 の値を変更する(すなわち各顔候補
領域に対する重み付けの基準を相対的に変更する)こと
で、各顔候補領域の濃度Mに付与する重みを変更するよ
うにしてもよい。
Regarding the face area density, for example, as shown in the following expression (7), the face area density Mface obtained by the above expression (5) (the expression (6) may be used) and other image feature amounts D
(For example, the average density of the entire image, the average density of the non-face candidate area, etc.) and the weighted average value Mface ′ (where α F is a weighting coefficient for the face area density Mface and α 0 is a weighting coefficient for the image feature amount D). When calculating as the face area density, the values of the weighting factors α F and α 0 are changed according to the type of image processing performed using the calculated face area density (that is, the weighting reference for each face candidate area is set relative to each other). The weight given to the density M of each face candidate area may be changed.

【0099】 Mface’=αF ・Mface+α0 ・D …(7) また、顔領域抽出・濃度演算処理の処理結果を利用して
行われる画像処理として、顔領域抽出・濃度演算処理の
処理結果に対する要求が異なる複数種の画像処理(例え
ば、抽出された顔領域の中に実際には顔領域でない領域
が混在していないことが望ましい画像処理と、抽出され
た顔領域の中に画像中の全ての顔領域が含まれているこ
とが望ましい画像処理等)が各々行われる場合には、そ
れぞれの画像処理に対応して顔領域の抽出や顔領域濃度
の演算を複数回行ってもよい。本実施形態では、重複度
xを各顔候補領域の顔領域としての信頼度(確度)とし
て用いることができ、上述したように、各顔候補領域に
対する重み点数設定の基準、顔領域判定の基準(閾値T
F )、各顔候補領域に対する重み付けの基準の少なく
とも1つを変更することで、顔領域抽出結果や顔領域濃
度演算結果としてそれぞれの画像処理が要求する結果を
各々得ることができるので、前記複数種の画像処理が各
々行われる場合にも、非常に複雑かつ時間がかかる顔候
補領域抽出処理を、前記複数種の画像処理に対応して処
理条件を変更しながら画像処理の種類数と同数回繰り返
す必要はなく、顔領域抽出・濃度演算処理の処理時間を
短縮することができ、画像処理装置14の性能向上を実
現できる。
Mface ′ = α F · M face + α 0 · D (7) Further, as the image processing performed using the processing result of the face area extraction / density calculation processing, the processing result of the face area extraction / density calculation processing is performed. Multiple types of image processing with different requests (for example, image processing where it is desirable that the extracted face area does not actually include areas that are not face areas) When the image processing, etc. in which it is desirable to include the face area is performed, the extraction of the face area and the calculation of the face area density may be performed a plurality of times corresponding to each image processing. In the present embodiment, the degree of overlap x can be used as the reliability (accuracy) of each face candidate region as a face region, and as described above, the weight score setting criterion and the face region determination criterion for each face candidate region are used. (Threshold T
H F ), by changing at least one of the weighting criteria for each face candidate area, the results required by each image processing can be obtained as the face area extraction result and the face area density calculation result. Even when a plurality of types of image processing are respectively performed, face candidate area extraction processing that is extremely complicated and time-consuming is performed in the same number as the number of types of image processing while changing the processing conditions corresponding to the plurality of types of image processing. It is not necessary to repeat the processing, the processing time for the face area extraction / density calculation processing can be shortened, and the performance of the image processing apparatus 14 can be improved.

【0100】また、上記ではプレスキャン画像データに
基づきオートセットアップエンジン44によって顔領域
抽出・濃度演算処理を含む処理条件の演算を行い、ファ
インスキャン画像データに対する実際の画像処理はイメ
ージプロセッサ40で行う場合を説明したが、これに限
定されるものでなく、単一の画像データに対して処理条
件の演算、演算した処理条件での画像処理を順に行うよ
うにしてもよく、これらの一連の処理を単一の処理部で
行うようにしてもよい。
In the above, when the auto-setup engine 44 calculates the processing conditions including the face area extraction / density calculation processing based on the prescan image data, and the image processor 40 performs the actual image processing for the fine scan image data. However, the present invention is not limited to this, and calculation of processing conditions for single image data and image processing under the calculated processing conditions may be performed in order, and a series of these processings may be performed. It may be performed by a single processing unit.

【0101】更に、上記では各顔候補領域に対して設定
した重み点数に基づき、顔領域の抽出及び顔領域濃度の
演算を各々行っていたが、これに限定されるものではな
く、何れか一方のみを行うようにしてもよい。
Furthermore, in the above description, the face area is extracted and the face area density is calculated based on the weighted points set for each face candidate area. However, the present invention is not limited to this. You may make it do only.

【0102】また、上記では写真フィルムに記録された
画像を読み取ることで得られた画像データを処理対象と
していたが、これに限定されるものではなく、紙等の他
の記録材料に記録された画像を読み取ることで得られた
画像データや、デジタルカメラによる撮像によって得ら
れた画像データ、或いはコンピュータによって生成され
た画像データを処理対象としてもよい。また、本発明は
写真フィルムに記録されたフィルム画像を面露光により
印画紙に露光記録する際の露光条件の決定に利用しても
よいことは言うまでもない。
Further, in the above, the image data obtained by reading the image recorded on the photographic film was processed, but it is not limited to this, and it is recorded on other recording material such as paper. Image data obtained by reading an image, image data obtained by imaging with a digital camera, or image data generated by a computer may be the processing target. Further, it goes without saying that the present invention may be used for determining exposure conditions when a film image recorded on a photographic film is exposed and recorded on a photographic paper by surface exposure.

【0103】また、上記では画像中の人物の顔に相当す
る領域を主要部とした場合を説明したが、これに限定さ
れるものではない。一例として、部品や製品等の大量生
産において、生産された部品や製品等が順に搬送されて
いる状況を撮像すると共に、前記搬送されている状況を
表す画像を撮像信号から所定のタイミングで抽出し、抽
出した画像から、主要部に相当する領域として前記部品
や製品等に対応する領域を抽出する等の場合に本発明を
適用することも可能である。この場合、抽出した主要部
領域は、例えば生産した部品や製品等を自動的に検査す
る等に利用することができる。
Further, although the case where the main part is the area corresponding to the face of the person in the image has been described above, the present invention is not limited to this. As an example, in mass production of parts, products, etc., while imaging the situation in which the produced parts, products, etc. are conveyed in sequence, an image representing the conveyed situation is extracted from the imaging signal at a predetermined timing. It is also possible to apply the present invention to the case of extracting a region corresponding to the part or product as a region corresponding to a main part from the extracted image. In this case, the extracted main part region can be used, for example, for automatically inspecting the produced parts or products.

【0104】[0104]

【発明の効果】以上説明したように請求項1及び請求項
9記載の発明は、画像データが表す画像中の主要部に相
当すると推定される候補領域を複数抽出し、画像上で他
の候補領域と重複している候補領域について重複度を求
め、他の候補領域と重複している候補領域に対する主要
部に相当する領域としての確度の評価が、他の候補領域
と重複していない候補領域に対する前記評価よりも高く
なり、かつ他の候補領域との重複度が高くなるに従って
更に高くなるように、各候補領域に対して主要部に相当
する領域としての確度を評価するので、画像中の主要部
に相当すると推定される領域の誤抽出による影響を低減
することができる、という優れた効果を有する。
As described above, according to the inventions of claims 1 and 9, a plurality of candidate regions estimated to correspond to the main part in the image represented by the image data are extracted, and other candidate regions are extracted on the image. The degree of overlap is calculated for the candidate area that overlaps the area, and the accuracy of the accuracy of the candidate area that overlaps the other candidate areas as the area corresponding to the main part is the candidate area that does not overlap the other candidate areas. Since it is higher than the above-mentioned evaluation with respect to each of the candidate regions, and is higher as the degree of overlap with other candidate regions is higher, the accuracy as the region corresponding to the main part is evaluated for each candidate region. It has an excellent effect that it is possible to reduce the influence of erroneous extraction of a region estimated to correspond to the main part.

【0105】請求項2記載の発明は、請求項1の発明に
おいて、重複度として、重複している一対の候補領域の
各々の大きさを基準にして一対の候補領域の距離を正規
化した値、一対の候補領域の各々の大きさを基準にして
重複している領域の面積を正規化した値、及び一対の候
補領域の各々の所定方向に沿った大きさを基準にして重
複している領域の所定方向に沿った大きさを正規化した
値の少なくとも1つを用いるようにしたので、上記効果
に加え、候補領域の大きさに拘らず候補領域の重複度を
正確に数値化できる、という効果を有する。
According to a second aspect of the present invention, in the first aspect of the invention, a value obtained by normalizing the distance between the pair of candidate regions based on the size of each of the pair of overlapping candidate regions as the degree of overlap. , A value obtained by normalizing the area of the overlapping area based on the size of each of the pair of candidate areas, and overlapping based on the size of each of the pair of candidate areas in the predetermined direction Since at least one of the values obtained by normalizing the size of the region in the predetermined direction is used, in addition to the above effect, the degree of overlap of the candidate regions can be accurately digitized regardless of the size of the candidate regions. Has the effect.

【0106】請求項3記載の発明は、請求項1の発明に
おいて、各候補領域に対して主要部に相当する領域とし
ての確度を評価した結果を表す評価値を閾値と比較する
ことで、各候補領域から主要部に相当する領域としての
確度の高い候補領域を選択するので、上記効果に加え、
主要部に相当する領域としての確度の高い候補領域を、
簡易な処理によって精度良く選択できる、という効果を
有する。
According to the invention of claim 3, in the invention of claim 1, by comparing an evaluation value representing a result of evaluating the accuracy of each candidate area as an area corresponding to a main part with a threshold value, Since a highly accurate candidate area is selected from the candidate areas as an area corresponding to the main part, in addition to the above effect,
A highly accurate candidate area as an area corresponding to the main part,
It has an effect that it can be selected with high accuracy by a simple process.

【0107】請求項4記載の発明は、請求項1の発明に
おいて、各候補領域又は各候補領域から選択した候補領
域を、主要部に相当する領域としての確度を評価した結
果を表す評価値に従って重み付けし、主要部の画像特徴
量として、各候補領域又は前記選択した候補領域の画像
特徴量の加重平均を演算するので、上記効果に加え、主
要部の画像特徴量を簡単な処理により精度良く求めるこ
とができる、という効果を有する。
According to the invention of claim 4, in the invention of claim 1, according to an evaluation value representing a result of evaluating the accuracy of each candidate area or a candidate area selected from each candidate area as an area corresponding to a main part. Since the weighted average of the image feature amount of each candidate region or the selected candidate region is calculated as the image feature amount of the main part, the image feature amount of the main part is accurately calculated by a simple process in addition to the above effect. It has the effect of being able to seek.

【0108】請求項5記載の発明は、請求項1の発明に
おいて、各候補領域に対して主要部に相当する領域とし
ての確度を評価した後に所定の画像処理を行う場合に、
所定の画像処理の種類に応じて、主要部に相当する領域
としての確度の評価の基準を変更するか、又は主要部に
相当する領域としての確度の高い候補領域の選択又は各
候補領域の重み付けの基準を変更するので、上記効果に
加え、所定の画像処理の種類に拘らず常に適正な処理結
果を得ることができる、という効果を有する。
According to a fifth aspect of the invention, in the first aspect of the invention, when predetermined image processing is performed after evaluating the accuracy of each candidate region as a region corresponding to a main part,
Depending on the type of predetermined image processing, change the criterion of accuracy evaluation as the area corresponding to the main part, or select a highly accurate candidate area as the area corresponding to the main part or weight each candidate area In addition to the above effects, there is an effect that an appropriate processing result can always be obtained regardless of the type of predetermined image processing.

【0109】請求項6記載の発明は、請求項5の発明に
おいて、所定の画像処理が、候補領域の誤抽出や候補領
域の誤評価があると処理結果が多大な影響を受ける画像
処理である場合に、主要部に相当する領域としての確度
の評価の基準が厳しくなるように前記評価の基準を変更
するか、前記確度がより高いと評価された候補領域のみ
が選択されるように前記選択の基準を変更するか、前記
確度が低いと評価された候補領域に対する重みが相対的
に小さくなるように重み付けの基準を変更するので、上
記効果に加え、候補領域の誤抽出や候補領域の誤評価が
あったとしても、所定の処理の処理結果が多大な影響を
受けることを回避することができる、という効果を有す
る。
According to a sixth aspect of the present invention, in the fifth aspect of the invention, the predetermined image processing is an image processing that has a great influence on the processing result if the candidate area is erroneously extracted or the candidate area is erroneously evaluated. In this case, the evaluation criteria are changed so that the accuracy evaluation criteria as the area corresponding to the main part becomes strict, or the selection is performed so that only the candidate areas evaluated to have higher accuracy are selected. Or the weighting reference is changed so that the weight for the candidate area evaluated to have low accuracy is relatively small. Even if there is an evaluation, it is possible to prevent the processing result of the predetermined processing from being greatly affected.

【0110】請求項7記載の発明は、請求項5の発明に
おいて、所定の画像処理が、候補領域の誤抽出や候補領
域の誤評価があっても処理結果が受ける影響の小さい画
像処理である場合に、主要部に相当する領域としての確
度の評価の基準が緩くなるように前記評価の基準を変更
するか、前記確度が低いと評価された候補領域も選択さ
れるように前記選択の基準を変更するか、前記確度が低
いと評価された候補領域に対する重みが相対的に大きく
なるように重み付けの基準を変更するので、上記効果に
加え、候補領域の誤抽出や候補領域の誤評価があった場
合に後処理の処理結果が受ける影響が小さくて済み、適
正な処理結果が得られる、という効果を有する。
According to a seventh aspect of the present invention, in the fifth aspect of the present invention, the predetermined image processing is an image processing which is less affected by the processing result even if the candidate area is erroneously extracted or the candidate area is erroneously evaluated. In this case, the evaluation criterion is changed so that the accuracy evaluation criterion as the area corresponding to the main part becomes loose, or the selection criterion is selected so that the candidate area evaluated to have low accuracy is also selected. Or the weighting criterion is changed so that the weight for the candidate region evaluated to have a low accuracy is relatively large. Therefore, in addition to the above effects, erroneous extraction of the candidate region or erroneous evaluation of the candidate region may occur. In that case, the effect of the post-processing result is small, and an appropriate processing result can be obtained.

【0111】請求項8記載の発明は、請求項1の発明に
おいて、候補領域内の濃度が第1の所定値よりも高い
か、又は第2の所定値よりも低い候補領域については、
前記主要部に相当する領域としての確度の評価を低くす
るか、又は前記主要部に相当する領域としての確度の高
い候補領域を選択する際の選択の基準を高くするので、
上記効果に加え、濃度が極端に高いか又は極端に低い領
域が候補領域として誤抽出された場合にも、後処理の処
理結果が不適正となることを回避できる、という効果を
有する。
The invention according to claim 8 is the invention according to claim 1, wherein the density in the candidate region is higher than the first predetermined value or lower than the second predetermined value.
To reduce the evaluation of accuracy as a region corresponding to the main part, or to increase the selection criteria when selecting a highly accurate candidate region as a region corresponding to the main part,
In addition to the above effects, it is possible to prevent the post-processing processing result from becoming inappropriate even when a region having extremely high or extremely low density is erroneously extracted as a candidate region.

【0112】請求項10記載の発明は、画像データが表
す画像中の主要部に相当すると推定される候補領域を複
数抽出する第1のステップ、画像上で他の候補領域と重
複している候補領域について重複度を求める第2のステ
ップ、他の候補領域と重複している候補領域に対する主
要部に相当する領域としての確度の評価が、他の候補領
域と重複していない候補領域に対する前記評価よりも高
くなり、かつ他の候補領域との重複度が高くなるに従っ
て更に高くなるように、各候補領域に対して主要部に相
当する領域としての確度を評価する第3のステップを含
む処理をコンピュータに実行させるためのプログラムを
記録媒体に記録したので、画像中の主要部に相当すると
推定される領域の誤抽出による影響を低減することがで
きる、という優れた効果を有する。
According to a tenth aspect of the present invention, the first step of extracting a plurality of candidate areas estimated to correspond to the main part of the image represented by the image data, the candidate overlapping the other candidate areas on the image The second step of obtaining the degree of overlap for an area, the evaluation of the accuracy as an area corresponding to the main part for a candidate area that overlaps with another candidate area, the evaluation for a candidate area that does not overlap with another candidate area Processing including a third step of evaluating the accuracy of each candidate area as an area corresponding to the main part, so that it becomes higher as the degree of overlap with other candidate areas becomes higher. Since the program to be executed by the computer is recorded on the recording medium, it is possible to reduce the influence of erroneous extraction of the region estimated to correspond to the main part of the image. It has an effect.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態に係る画像処理システムの概略構成
図である。
FIG. 1 is a schematic configuration diagram of an image processing system according to an embodiment.

【図2】本実施形態に係る顔領域抽出・濃度演算処理の
内容を示すフローチャートである。
FIG. 2 is a flowchart showing the contents of face area extraction / density calculation processing according to the present embodiment.

【図3】顔候補領域抽出処理による処理結果の一例を示
すイメージ図である。
FIG. 3 is an image diagram showing an example of a processing result of face candidate area extraction processing.

【図4】(A)は重複している一対の顔候補領域の一例
を示すイメージ図、(B)及び(C)は重複度に応じて
重み点数を設定するためのマップの一例を示す線図であ
る。
FIG. 4A is an image diagram showing an example of a pair of overlapping face candidate regions, and FIGS. 4B and 4C are diagrams showing an example of a map for setting weight points according to the degree of overlap. Is.

【図5】(A)は濃度が極端に高い又は極端に低い顔候
補領域に対する重み点数を修正するためのマップを示す
線図、(B)は濃度が極端に高い又は極端に低い顔候補
領域が存在していた場合の顔領域判定用の閾値の変更を
説明する線図である。
FIG. 5A is a diagram showing a map for correcting a weight score for a face candidate area having extremely high or extremely low density, and FIG. 5B is a face candidate area having extremely high or extremely low density. FIG. 10 is a diagram illustrating a change in the threshold value for face area determination in the case where there is an object.

【符号の説明】[Explanation of symbols]

10 画像処理システム 14 画像処理装置 40 イメージプロセッサ 44 オートセットアップエンジン 72 情報記憶媒体 10 Image processing system 14 Image processing device 40 image processor 44 Auto Setup Engine 72 Information storage medium

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像データに基づいて、該画像データが
表す画像中の主要部に相当すると推定される候補領域を
抽出し、 前記抽出した候補領域のうち、画像上で他の候補領域と
重複している候補領域について、前記他の候補領域との
重複度を求め、 他の候補領域と重複している候補領域に対する前記画像
中の主要部に相当する領域としての確度の評価が、他の
候補領域と重複していない候補領域に対する前記評価よ
りも高くなり、かつ他の候補領域との重複度が高くなる
に従って更に高くなるように、前記抽出した候補領域に
対して前記主要部に相当する領域としての確度を評価す
る画像処理方法。
1. A candidate area estimated to correspond to a main part of an image represented by the image data is extracted based on the image data, and the extracted candidate area overlaps with other candidate areas on the image. For the candidate area that is being obtained, the degree of overlap with the other candidate area is obtained, and the accuracy of the candidate area overlapping the other candidate area as an area corresponding to the main part in the image is It is higher than the evaluation for a candidate area that does not overlap with a candidate area, and is higher as the degree of overlap with another candidate area is higher, and corresponds to the main part with respect to the extracted candidate area. An image processing method for evaluating the accuracy as a region.
【請求項2】 前記重複度として、重複している一対の
候補領域の各々の大きさを基準にして前記一対の候補領
域の距離を正規化した値、前記一対の候補領域の各々の
大きさを基準にして重複している領域の面積を正規化し
た値、及び前記一対の候補領域の各々の所定方向に沿っ
た大きさを基準にして重複している領域の所定方向に沿
った大きさを正規化した値の少なくとも1つを用いるこ
とを特徴とする請求項1記載の画像処理方法。
2. A value obtained by normalizing the distance between the pair of candidate regions based on the size of each of the pair of overlapping candidate regions as the degree of overlap, and the size of each of the pair of candidate regions. A value obtained by normalizing the area of the overlapping region based on the above, and the size of the overlapping region along the predetermined direction based on the size of each of the pair of candidate regions along the predetermined direction. The image processing method according to claim 1, wherein at least one of the normalized values is used.
【請求項3】 前記抽出した候補領域に対して前記主要
部に相当する領域としての確度を評価した結果を表す評
価値を閾値と比較することで、前記抽出した候補領域か
ら前記主要部に相当する領域としての確度の高い候補領
域を選択することを特徴とする請求項1記載の画像処理
方法。
3. Corresponding to the main part from the extracted candidate region by comparing an evaluation value representing a result of evaluating the accuracy of the extracted candidate region as a region corresponding to the main part with a threshold value. The image processing method according to claim 1, wherein a candidate area having a high degree of accuracy as an area to be selected is selected.
【請求項4】 前記抽出した候補領域又は抽出した候補
領域から選択した候補領域を、前記主要部に相当する領
域としての確度を評価した結果を表す評価値に従って重
み付けし、前記主要部の画像特徴量として、前記抽出し
た候補領域又は前記選択した候補領域の画像特徴量の加
重平均を演算することを特徴とする請求項1記載の画像
処理方法。
4. The image feature of the main part is obtained by weighting the extracted candidate region or a candidate region selected from the extracted candidate regions according to an evaluation value representing a result of evaluation of accuracy as a region corresponding to the main portion. The image processing method according to claim 1, wherein a weighted average of image feature amounts of the extracted candidate region or the selected candidate region is calculated as the amount.
【請求項5】 前記抽出した候補領域に対して前記主要
部に相当する領域としての確度を評価した後に、該評価
の結果に基づいて、前記主要部に相当する領域としての
確度の高い候補領域の選択及び前記抽出した候補領域の
重み付けの少なくとも一方を含む所定の画像処理を行う
場合に、 前記所定の画像処理の種類に応じて、前記評価の基準を
変更するか、又は前記選択又は前記重み付けの基準を変
更することを特徴とする請求項1記載の画像処理方法。
5. A candidate area having a high accuracy as an area corresponding to the main part based on the result of the evaluation after evaluating the accuracy of the extracted candidate area as an area corresponding to the main part. When performing a predetermined image processing including at least one of the selection and weighting of the extracted candidate region, according to the type of the predetermined image processing, change the evaluation criteria, or the selection or the weighting 2. The image processing method according to claim 1, wherein the criterion is changed.
【請求項6】 前記所定の画像処理が、候補領域の誤抽
出や候補領域の誤評価があると処理結果が多大な影響を
受ける画像処理である場合に、主要部に相当する領域と
しての確度の評価の基準が厳しくなるように前記評価の
基準を変更するか、前記確度がより高いと評価された候
補領域のみが選択されるように前記選択の基準を変更す
るか、前記確度が低いと評価された候補領域に対する重
みが相対的に小さくなるように重み付けの基準を変更す
ることを特徴とする請求項5記載の画像処理方法。
6. The accuracy as an area corresponding to a main part when the predetermined image processing is an image processing in which a processing result is greatly affected by erroneous extraction of a candidate area or erroneous evaluation of the candidate area. Of the evaluation criterion is changed so that the evaluation criterion becomes stricter, or the selection criterion is changed so that only the candidate regions evaluated to have higher accuracy are selected, or the accuracy is low. The image processing method according to claim 5, wherein the weighting criterion is changed so that the weight of the evaluated candidate region becomes relatively small.
【請求項7】 前記所定の画像処理が、候補領域の誤抽
出や候補領域の誤評価があっても処理結果が受ける影響
の小さい画像処理である場合に、主要部に相当する領域
としての確度の評価の基準が緩くなるように前記評価の
基準を変更するか、前記確度が低いと評価された候補領
域も選択されるように前記選択の基準を変更するか、前
記確度が低いと評価された候補領域に対する重みが相対
的に大きくなるように重み付けの基準を変更することを
特徴とする請求項5記載の画像処理方法。
7. The accuracy as an area corresponding to a main part when the predetermined image processing is an image processing having a small influence on a processing result even if a candidate area is erroneously extracted or erroneously evaluated. Change the evaluation criteria so that the evaluation criteria becomes loose, or change the selection criteria so that the candidate area evaluated to have a low accuracy is also selected, or the accuracy is evaluated to be low. 6. The image processing method according to claim 5, wherein the weighting reference is changed so that the weight for the candidate region becomes relatively large.
【請求項8】 候補領域内の濃度が第1の所定値よりも
高いか、又は第2の所定値よりも低い候補領域について
は、前記主要部に相当する領域としての確度の評価を低
くするか、又は前記主要部に相当する領域としての確度
の高い候補領域を選択する際の選択の基準を高くするこ
とを特徴とする請求項1記載の画像処理方法。
8. For a candidate area whose density in the candidate area is higher than a first predetermined value or lower than a second predetermined value, the evaluation of accuracy as an area corresponding to the main part is lowered. 2. The image processing method according to claim 1, further comprising increasing a selection criterion when selecting a candidate region having high accuracy as a region corresponding to the main part.
【請求項9】 画像データに基づいて、該画像データが
表す画像中の主要部に相当すると推定される候補領域を
抽出する抽出手段と、 前記抽出した候補領域のうち、画像上で他の候補領域と
重複している候補領域について、前記他の候補領域との
重複度を求める演算手段と、 他の候補領域と重複している候補領域に対する前記画像
中の主要部に相当する領域としての確度の評価が、他の
候補領域と重複していない候補領域に対する前記評価よ
りも高くなり、かつ他の候補領域との重複度が高くなる
に従って更に高くなるように、前記抽出した候補領域に
対して前記主要部に相当する領域としての確度を評価す
る評価手段と、 を含む画像処理装置。
9. Extracting means for extracting a candidate region estimated to correspond to a main part in an image represented by the image data based on the image data, and another candidate on the image among the extracted candidate regions. With respect to a candidate area that overlaps with an area, a calculating unit that obtains the degree of overlap with the other candidate area, and the accuracy as an area corresponding to the main part in the image with respect to the candidate area that overlaps with the other candidate area The evaluation is higher than the evaluation for a candidate area that does not overlap with another candidate area, and is higher as the degree of overlap with another candidate area is higher, with respect to the extracted candidate area. An image processing apparatus including: an evaluation unit that evaluates the accuracy as an area corresponding to the main part.
【請求項10】 画像データに基づいて、該画像データ
が表す画像中の主要部に相当すると推定される候補領域
を抽出する第1のステップ、 前記抽出した候補領域のうち、画像上で他の候補領域と
重複している候補領域について、前記他の候補領域との
重複度を求める第2のステップ、 他の候補領域と重複している候補領域に対する前記画像
中の主要部に相当する領域としての確度の評価が、他の
候補領域と重複していない候補領域に対する前記評価よ
りも高くなり、かつ他の候補領域との重複度が高くなる
に従って更に高くなるように、前記抽出した候補領域に
対して前記主要部に相当する領域としての確度を評価す
る第3のステップを含む処理をコンピュータに実行させ
るためのプログラムが記憶された記録媒体。
10. A first step of extracting a candidate region estimated to correspond to a main part in an image represented by the image data, based on the image data; The second step of obtaining the degree of overlap with the other candidate area for the candidate area overlapping with the candidate area, as the area corresponding to the main part in the image for the candidate area overlapping with the other candidate area The accuracy of the evaluation is higher than the evaluation for a candidate area that does not overlap with other candidate areas, and is higher as the degree of overlap with other candidate areas is higher. On the other hand, a recording medium in which a program for causing a computer to execute a process including a third step of evaluating accuracy as an area corresponding to the main part is stored.
JP20435899A 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium Expired - Lifetime JP3506958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20435899A JP3506958B2 (en) 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP25705298 1998-09-10
JP10-257052 1998-09-10
JP20435899A JP3506958B2 (en) 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000149018A JP2000149018A (en) 2000-05-30
JP3506958B2 true JP3506958B2 (en) 2004-03-15

Family

ID=26514430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20435899A Expired - Lifetime JP3506958B2 (en) 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3506958B2 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022441A (en) * 2001-07-06 2003-01-24 Minolta Co Ltd Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.
US7050636B2 (en) * 2001-12-07 2006-05-23 Eastman Kodak Company Method and system for improving an image characteristic based on image content
US7289664B2 (en) 2002-01-17 2007-10-30 Fujifilm Corporation Method of detecting and correcting the red eye
US7035461B2 (en) * 2002-08-22 2006-04-25 Eastman Kodak Company Method for detecting objects in digital images
US7397969B2 (en) 2002-08-30 2008-07-08 Fujifilm Corporation Red eye compensation method, image processing apparatus and method for implementing the red eye compensation method, as well as printing method and printer
US7065310B2 (en) 2003-12-18 2006-06-20 Seiko Epson Corporation Image forming apparatus that quickly removes ozone present in the vicinity of a corona charger
JP4373828B2 (en) 2004-03-22 2009-11-25 富士フイルム株式会社 Specific area detection method, specific area detection apparatus, and program
JP4320272B2 (en) 2004-03-31 2009-08-26 富士フイルム株式会社 Specific area detection method, specific area detection apparatus, and program
US7620242B2 (en) 2004-04-06 2009-11-17 Fujifilm Corporation Particular-region detection method and apparatus, and program therefor
JP4752408B2 (en) * 2005-09-09 2011-08-17 ソニー株式会社 Image processing apparatus and method, and program
JP2007086940A (en) * 2005-09-21 2007-04-05 Noritsu Koki Co Ltd Image processing device and image processing method
JP4549997B2 (en) 2006-03-30 2010-09-22 富士フイルム株式会社 Red-eye detection device, red-eye detection method, and red-eye detection program
JP4804989B2 (en) 2006-03-31 2011-11-02 富士フイルム株式会社 Image processing apparatus, image processing method, image processing program, image processing system, and image processing management apparatus
JP4218720B2 (en) 2006-09-22 2009-02-04 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
KR100834765B1 (en) 2006-12-07 2008-06-05 삼성전자주식회사 Apparatus and method for reproducing preferred color
KR100843095B1 (en) 2006-12-13 2008-07-03 삼성전자주식회사 Apparatus and method for reproducing a preferred color
DE102007025892A1 (en) * 2007-06-01 2008-12-11 Phoenix Contact Gmbh & Co. Kg Tool recognition in Profinet
JP4766702B2 (en) * 2008-01-11 2011-09-07 キヤノン株式会社 Image processing apparatus and method
JP2009217607A (en) * 2008-03-11 2009-09-24 Seiko Epson Corp Calculation for reliability in detecting face region in image
JP5256847B2 (en) * 2008-05-20 2013-08-07 株式会社ニコン Imaging device
JP4947216B2 (en) * 2008-09-17 2012-06-06 富士通株式会社 Image processing apparatus and image processing method
JP5907593B2 (en) * 2011-09-13 2016-04-26 キヤノン株式会社 Image recognition apparatus, image recognition method, and program
JP6121768B2 (en) * 2013-03-26 2017-04-26 株式会社メガチップス Image detection apparatus, control program, and image detection method
JP6348368B2 (en) * 2014-08-12 2018-06-27 セコム株式会社 Object detection device
JP6448036B2 (en) * 2015-09-03 2019-01-09 日本電信電話株式会社 Object region identification method, apparatus, and program
JP6517652B2 (en) * 2015-10-01 2019-05-22 日本電信電話株式会社 Object saliency map calculation device, method and program
US10991104B2 (en) * 2017-04-11 2021-04-27 Rakuten, Inc. Image processing device, image processing method, and program
WO2019088223A1 (en) * 2017-11-02 2019-05-09 株式会社Nttドコモ Detection device and detection program
US10963675B2 (en) * 2019-01-30 2021-03-30 Realnetworks, Inc. Method for selecting images in video of faces in the wild
JP7377078B2 (en) 2019-11-21 2023-11-09 キヤノン株式会社 Image processing device, image processing method, and imaging device

Also Published As

Publication number Publication date
JP2000149018A (en) 2000-05-30

Similar Documents

Publication Publication Date Title
JP3506958B2 (en) Image processing method, image processing apparatus, and recording medium
JP4153108B2 (en) Image processing method, image processing apparatus, and recording medium
US6445819B1 (en) Image processing method, image processing device, and recording medium
US6665434B1 (en) Device, method, and recordium for correcting color imbalance of an image
US8391595B2 (en) Image processing method and image processing apparatus
JP3961734B2 (en) Image processing method, apparatus, and recording medium
JP4856086B2 (en) Method and apparatus for detecting red eye in an acquired digital image
JP4050842B2 (en) Image processing method
JP2000148980A (en) Image processing method, image processor and recording medium
US7408569B1 (en) Image processing device, image processing method and recording medium
JPH0863597A (en) Face extracting method
JP2005518722A (en) Detection and correction of red-eye features in digital images
US7164805B2 (en) Image processing method and apparatus, and recording medium
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
US9131193B2 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP4599110B2 (en) Image processing apparatus and method, imaging apparatus, and program
JP2001274990A (en) Image processing method and image processor
US7333240B2 (en) Color image processor
JPH08235350A (en) Method for adjustment of color of image at inside of document processor
JP4646130B2 (en) Image processing apparatus, image processing method, program, and storage medium storing program
JP2003209704A (en) Image processing method, image processor, image forming device, image processing program, and recording medium
JP3575976B2 (en) Main subject extraction method
JPH11308474A (en) Image processor
JP2000152067A (en) Method and device for picture processing and recording medium
JP2001167277A (en) Method and device for processing image, recording medium and transmitting medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031217

R150 Certificate of patent or registration of utility model

Ref document number: 3506958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101226

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101226

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131226

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term