JP2000149018A - Image processing method, and device and recording medium thereof - Google Patents

Image processing method, and device and recording medium thereof

Info

Publication number
JP2000149018A
JP2000149018A JP11204358A JP20435899A JP2000149018A JP 2000149018 A JP2000149018 A JP 2000149018A JP 11204358 A JP11204358 A JP 11204358A JP 20435899 A JP20435899 A JP 20435899A JP 2000149018 A JP2000149018 A JP 2000149018A
Authority
JP
Japan
Prior art keywords
area
candidate
region
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11204358A
Other languages
Japanese (ja)
Other versions
JP3506958B2 (en
Inventor
Naoto Kaneshiro
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP20435899A priority Critical patent/JP3506958B2/en
Publication of JP2000149018A publication Critical patent/JP2000149018A/en
Application granted granted Critical
Publication of JP3506958B2 publication Critical patent/JP3506958B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce influences that are caused by the erroneous extraction of an area which is estimated to be equivalent to the primary part of an image. SOLUTION: Plural face candidate areas, (e.g. areas A-D), which are estimated to be equivalent to the face of a person are extracted based on the data on an image to be processed, and overlap degree is calculated for a pair of face candidate areas which overlap each other. Then a weight mark is set to every face candidate area so that the weight mark of a face candidate area, which is overlapping another face candidate area is higher than a face candidate area which is not overlapping another face candidate area, and also the weight mark of a face candidate area becomes higher as its overlapping degree is increased with another face candidate area. An area equivalent to the face of a person is extracted from every face candidate area, by comparing the weight mark of every face candidate area with its threshold, and the weight mean value obtained by weighting the density value of every face candidate are according to its weight mark is calculated as the face area density.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理方法、画像
処理装置及び記録媒体に係り、特に、画像中の主要部に
相当する領域と推定される領域を抽出する画像処理方
法、前記画像処理方法を適用可能な画像処理装置、及び
前記画像処理方法をコンピュータで実行させるためのプ
ログラムが記録された記録媒体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing method, an image processing apparatus, and a recording medium, and more particularly to an image processing method for extracting an area estimated to be an area corresponding to a main part in an image, and the image processing method. The present invention relates to an image processing apparatus to which the present invention can be applied and a recording medium on which a program for causing a computer to execute the image processing method is recorded.

【0002】[0002]

【従来の技術】人物写真を観賞するときに最も注目され
る部位は人物の顔であり、例えば写真フィルム等に記録
された原画像を印画紙等の記録材料に露光記録(面露光
或いは走査露光により記録)する場合には、人物の顔の
色及び濃度が適正となるように露光を制御することが望
ましいが、この露光制御を実現するためには原画像中の
人物の顔に相当する領域の色味や濃度を正確に検知する
必要がある。また、画像を読み取ることで得られた画像
データに対し、該画像データが表す画像の画質向上を目
的として開発された種々の画像処理の中には、画像中の
人物の顔に相当する領域又はその一部に対してのみ特定
の画像処理(例えば局所的な濃度補正や赤目修正等)を
施すものがあるが、この処理を行うためには画像中の人
物の顔に相当する領域の位置や大きさを正確に検知する
必要がある。
2. Description of the Related Art The most noticeable part when viewing a photograph of a person is the face of the person. In this case, it is desirable to control the exposure so that the color and density of the person's face are appropriate. However, in order to realize this exposure control, an area corresponding to the person's face in the original image It is necessary to accurately detect the color and density of the image. In addition, for image data obtained by reading an image, various image processing developed for the purpose of improving the image quality of the image represented by the image data includes an area corresponding to the face of a person in the image or Some of them perform specific image processing (for example, local density correction and red-eye correction, etc.) on only a part of them. It is necessary to accurately detect the size.

【0003】このため、従来より、画像中の人物の顔等
の主要部に相当すると推定される領域を抽出するための
手法が種々提案されている。例えば特開平8-184925号公
報には、画像データに基づいて、画像中に存在する人物
の各部に特有の形状パターン(例えば頭部の輪郭、顔の
輪郭、顔の内部構造、胴体の輪郭等を表す形状パター
ン)の何れか1つを探索し、検出した形状パターンの大
きさ、向き、検出した形状パターンが表す人物の所定部
分と人物の顔との位置関係に応じて、人物の顔に相当す
ると推定される領域を設定すると共に、検出した形状パ
ターンと異なる他の形状パターンを探索し、先に設定し
た領域の、人物の顔としての整合性を求め、人物の顔に
相当すると推定される領域(顔領域)を抽出する顔領域
の抽出方法が開示されている。
[0003] For this reason, conventionally, various methods have been proposed for extracting a region presumed to correspond to a main part such as a face of a person in an image. For example, Japanese Patent Application Laid-Open No. 8-184925 discloses that a shape pattern specific to each part of a person present in an image (for example, a contour of a head, a contour of a face, an internal structure of a face, a contour of a body, etc.) (A shape pattern representing a human face) in accordance with the size and orientation of the detected shape pattern and the positional relationship between a predetermined portion of the person represented by the detected shape pattern and the person's face. In addition to setting an area that is estimated to be equivalent, another shape pattern different from the detected shape pattern is searched for, and the consistency of the previously set area as a person's face is determined. A method for extracting a face region for extracting a region (face region) is disclosed.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、現在提
案されている種々の手法は、何れも、画像中の人物の顔
等の主要部に相当する領域を常に精度良く抽出できるも
のではなく、主要部に相当する領域を誤抽出することが
ある。そして、主要部に相当する領域が誤抽出された場
合、抽出結果を利用して行われる露光制御や画像処理に
よる処理結果が不適正なものとなる、という問題があっ
た。
However, none of the various methods proposed at present can always always extract a region corresponding to a main part such as a face of a person in an image with high accuracy. May be erroneously extracted. Then, when a region corresponding to the main part is erroneously extracted, there is a problem that a processing result by exposure control or image processing performed using the extraction result becomes inappropriate.

【0005】例えば逆光の照明条件下でストロボを発光
させて人物を撮影した画像に対し、画像中の高輝度の背
景部分を人物の顔に相当する領域と誤抽出した場合、抽
出された領域の色及び濃度に基づいて記録材料に画像を
露光記録する際の露光量を制御したとすると、記録画像
は、人物の顔に相当する領域が黒く潰れた不適切な画質
になる。また、抽出された領域又はその一部に対しての
み特定の画像処理を行う場合についても、画像中の人物
の顔に相当する領域と異なる領域に対してのみ前記特定
の処理が行われることで、画像データが表す画像の画質
が却って低下することがある。
For example, when an image of a person photographed with a strobe light under backlighting conditions is erroneously extracted as a region corresponding to a person's face, a high-luminance background portion in the image is extracted. Assuming that the exposure amount when exposing and recording an image on a recording material is controlled based on the color and density, the recorded image has an inappropriate image quality in which an area corresponding to a person's face is blackened. Also, in the case where the specific image processing is performed only on the extracted region or a part thereof, the specific processing is performed only on the region different from the region corresponding to the face of the person in the image. However, the image quality of the image represented by the image data may be rather deteriorated.

【0006】本発明は上記事実を考慮して成されたもの
で、画像中の主要部に相当すると推定される領域の誤抽
出による影響を低減することができる画像処理方法、画
像処理装置及び記録媒体を得ることが目的である。
The present invention has been made in view of the above facts, and has an image processing method, an image processing apparatus, and a recording method capable of reducing the influence of erroneous extraction of a region estimated to correspond to a main part in an image. The purpose is to get a medium.

【0007】[0007]

【課題を解決するための手段】本願発明者は、画像中の
人物の顔等の主要部に相当すると推定される領域を抽出
する各種の抽出方式の中から任意の抽出方式を選択し、
選択した抽出方式を適用して多数の画像から主要部に相
当する領域を各々抽出させることを、前記抽出方式の処
理条件(例えば主要部か否かの判定の閾値等)を変更し
たり、抽出方式そのものを変更しながら繰り返す実験を
行った。そして、各回の抽出で抽出された領域を比較し
た結果、画像中の主要部に一致又は略一致している抽出
領域は他の抽出領域と重なっており、かつ他の抽出領域
との重なり度合いが大きいことが殆どであることを見い
出し、抽出領域の画像中の主要部に相当する領域として
の確度は、他の抽出領域との重複度合いと強い相関があ
ることに想致した。
The inventor of the present application selects an arbitrary extraction method from various extraction methods for extracting a region presumed to correspond to a main part such as a human face in an image,
Applying the selected extraction method to extract a region corresponding to a main part from a large number of images may be performed by changing a processing condition of the extraction method (for example, a threshold value for determining whether or not the main part is used), or An experiment was repeated while changing the method itself. Then, as a result of comparing the regions extracted in each extraction, the extracted region that matches or substantially matches the main part in the image overlaps with another extracted region, and the degree of overlap with other extracted regions is small. It was found that it was almost large, and it was thought that the accuracy of the extracted region as a region corresponding to the main part in the image had a strong correlation with the degree of overlap with other extracted regions.

【0008】また、各種の抽出方式には、アルゴリズム
の相違により、1回の抽出処理で複数の領域が抽出され
た場合にも各抽出領域に重なりが生じないものと、1回
の抽出処理で複数の領域が抽出された場合に各抽出領域
に重なりが生じる可能性があるものとがある(例えば画
像中のエッジを追跡して主要部に相当する領域を抽出す
るアルゴリズムでは、互いに異なる複数箇所を開始点と
してエッジ追跡を行うと、一部重なっているものの異な
る領域が主要部に相当する領域として抽出されることが
ある)が、後者の抽出方式においても、1回の抽出処理
で複数の領域が抽出され、かつ他の抽出領域と重なりが
生じている抽出領域は、画像中の主要部に一致又は略一
致していることが多く、抽出領域の画像中の主要部に相
当する領域としての確度は、前述のように、他の抽出領
域との重複度合いと強い相関があることが確認された。
[0008] Further, among various extraction methods, due to differences in algorithms, even when a plurality of regions are extracted in one extraction process, each extraction region does not overlap. When a plurality of regions are extracted, there is a possibility that each of the extracted regions may overlap. (For example, in an algorithm for tracking an edge in an image and extracting a region corresponding to a main part, a plurality of regions different from each other may be used. When the edge tracking is performed with the starting point as a starting point, different areas that are partially overlapped but different areas may be extracted as an area corresponding to a main part.) However, even in the latter extraction method, a plurality of areas are extracted by one extraction process. The extracted region where the region is extracted and overlaps with other extracted regions often coincides or substantially coincides with the main part in the image, and as an area corresponding to the main part in the image of the extracted region. Accuracy, as described above, it was confirmed that there is a degree of overlapping strongly correlated with other extraction region.

【0009】上記に基づき請求項1記載の発明に係る画
像処理方法は、画像データに基づいて、該画像データが
表す画像中の主要部に相当すると推定される候補領域を
抽出し、前記抽出した候補領域のうち、画像上で他の候
補領域と重複している候補領域について、前記他の候補
領域との重複度を求め、他の候補領域と重複している候
補領域に対する前記画像中の主要部に相当する領域とし
ての確度の評価が、他の候補領域と重複していない候補
領域に対する前記評価よりも高くなり、かつ他の候補領
域との重複度が高くなるに従って更に高くなるように、
前記抽出した候補領域に対して前記主要部に相当する領
域としての確度を評価する。
[0009] Based on the above, the image processing method according to the first aspect of the present invention extracts, based on the image data, a candidate area estimated to correspond to a main part in an image represented by the image data, and extracts the extracted area. Among the candidate areas, for a candidate area overlapping with another candidate area on the image, the degree of overlap with the other candidate area is determined, and a main area in the image corresponding to the candidate area overlapping with the other candidate area is determined. The evaluation of the accuracy as a region corresponding to the portion is higher than the evaluation for a candidate region that does not overlap with other candidate regions, and further higher as the degree of overlap with other candidate regions increases,
The accuracy of the extracted candidate region as a region corresponding to the main part is evaluated.

【0010】請求項1記載の発明では、まず、画像デー
タに基づいて、該画像データが表す画像中の主要部に相
当すると推定される候補領域を抽出する。なお、上記の
抽出によって実際に抽出される候補領域の数は、画像デ
ータが表す画像の内容にも依存するが、本発明では候補
領域が複数抽出されることが望ましい。候補領域が複数
抽出される確率を向上させることは、例えば異なる抽出
方式を各々適用して候補領域の抽出を複数回行ったり、
単一の抽出方式で処理条件を変更しながら候補領域の抽
出を複数回行ったりすることにより実現できる。また、
1回の抽出処理で複数の候補領域が抽出された場合に各
候補領域に重なりが生じる可能性がある抽出方式を適用
する場合には、候補領域の抽出を1回のみ行ってもよ
い。
According to the first aspect of the present invention, first, a candidate area estimated to correspond to a main part in an image represented by the image data is extracted based on the image data. The number of candidate regions actually extracted by the above extraction also depends on the content of the image represented by the image data, but in the present invention, it is desirable to extract a plurality of candidate regions. Improving the probability that a plurality of candidate regions are extracted is, for example, applying a different extraction method each time to extract a candidate region multiple times,
This can be realized by performing the extraction of the candidate region a plurality of times while changing the processing conditions by a single extraction method. Also,
When a plurality of candidate regions are extracted in one extraction process, and an extraction method that may cause overlap in each candidate region is applied, the candidate region may be extracted only once.

【0011】次に、抽出した候補領域のうち、画像上で
他の候補領域と重複している候補領域について、他の候
補領域との重複度を求めている。なお、重複度の演算
は、例えば候補領域が複数抽出され、かつ他の候補領域
と重複している候補領域が存在する場合に行うことがで
きる。
Next, among the extracted candidate areas, for a candidate area overlapping with another candidate area on the image, the degree of overlap with the other candidate area is determined. The calculation of the degree of overlap can be performed, for example, when a plurality of candidate regions are extracted and there is a candidate region overlapping with another candidate region.

【0012】重複度としては、例えば請求項2に記載し
たように、重複している一対の候補領域の各々の大きさ
を基準にして前記一対の候補領域の距離(一対の候補領
域の各々の重心位置の距離であってもよいし、一対の候
補領域の各々の位置を代表する代表点間の距離であって
もよい)を正規化した値、前記一対の候補領域の各々の
大きさを基準にして重複している領域の面積を正規化し
た値、及び前記一対の候補領域の各々の所定方向に沿っ
た大きさを基準にして重複している領域の所定方向に沿
った大きさを正規化した値の少なくとも1つを用いるこ
とができる。また、上記各値のうちの2つ以上の値の平
均値や加重平均値を用いてもよい。上記のように正規化
した値を用いることで、候補領域の大きさに拘らず候補
領域の重複度を正確に数値化することができる。なお、
互いに重複している一対の候補領域の大きさが異なって
いる場合には、双方の候補領域の大きさを基準にするこ
とで各々求まる一対の値のうち、より小さい重複度を表
す値を重複度として用いることが好ましい。
The degree of overlap may be, for example, a distance between the pair of candidate regions based on the size of each of the pair of candidate regions overlapping with each other (each of the pair of candidate regions). May be the distance of the center of gravity position, or may be the distance between representative points representing the positions of the pair of candidate regions), and the magnitude of each of the pair of candidate regions. The value obtained by normalizing the area of the overlapping region based on the reference, and the size along the predetermined direction of the overlapping region based on the size along the predetermined direction of each of the pair of candidate regions. At least one of the normalized values can be used. Alternatively, an average value or a weighted average value of two or more values among the above values may be used. By using the values normalized as described above, it is possible to accurately digitize the degree of overlap of the candidate regions regardless of the size of the candidate regions. In addition,
When the size of a pair of candidate regions overlapping each other is different, a value representing a smaller degree of overlap among a pair of values obtained by using the sizes of both candidate regions as a reference is duplicated. It is preferable to use it as a degree.

【0013】そして請求項1の発明は、他の候補領域と
重複している候補領域に対する画像中の主要部に相当す
る領域としての確度の評価が、他の候補領域と重複して
いない候補領域に対する前記評価よりも高くなり、かつ
他の候補領域との重複度が高くなるに従って更に高くな
るように、抽出した候補領域に対して前記主要部に相当
する領域としての確度を評価する。これにより、抽出し
た候補領域のうち、前述の実験により画像中の主要部に
相当する領域である確度が高いことが確認された候補領
域、すなわち他の候補領域と重複しておりかつ他の候補
領域との重複度が比較的高い候補領域については、画像
中の主要部に相当する領域としての確度の評価が他の候
補領域よりも高くされることになる。
According to the first aspect of the present invention, the evaluation of the accuracy of a candidate area overlapping with another candidate area as an area corresponding to a main part in an image is performed on a candidate area not overlapping with another candidate area. The accuracy of the extracted candidate region as a region corresponding to the main part is evaluated so that the extracted candidate region becomes higher than the above-described evaluation and further increases as the degree of overlap with another candidate region increases. As a result, of the extracted candidate regions, the candidate region confirmed to have a high probability of being a region corresponding to the main part in the image by the above-described experiment, that is, the candidate region overlapping with another candidate region and having another candidate region For a candidate region having a relatively high degree of overlap with the region, the evaluation of the certainty as a region corresponding to the main part in the image is made higher than for other candidate regions.

【0014】なお、抽出した候補領域の評価は、例えば
評価の高低を数値で表す評価値を設定することで行うこ
とができる。評価値の設定は、例えば他の候補領域と重
複していない候補領域については評価値を0又は低い値
とし、互いに重複している一対の候補領域については、
重複度が大きくなるに従って値が大きくなるように評価
値を各々設定し、複数の候補領域と重複している候補領
域については、重複している各候補領域毎に重複度に応
じて設定した評価値を積算して設定することで行うこと
ができる。
The evaluation of the extracted candidate area can be performed, for example, by setting an evaluation value indicating the level of the evaluation by a numerical value. For the setting of the evaluation value, for example, the evaluation value is set to 0 or a low value for a candidate area not overlapping with another candidate area, and for a pair of candidate areas overlapping each other,
The evaluation value is set so that the value increases as the degree of overlap increases. For candidate areas overlapping with a plurality of candidate areas, the evaluation set according to the degree of overlap for each overlapping candidate area. This can be done by integrating and setting the values.

【0015】上記のように、抽出した候補領域に対して
画像中の主要部に相当する領域としての確度を評価した
結果を利用する後処理としては、例えば請求項3に記載
したように、各候補領域から主要部に相当する領域とし
ての確度の高い候補領域を選択する処理や、請求項4に
記載したように、抽出した候補領域(又は抽出した候補
領域から選択した候補領域)を重み付けする処理等が挙
げられるが、画像中の主要部と推定される領域の誤抽出
により、抽出された候補領域の中に実際には画像中の主
要部でない候補領域が含まれていたとしても、請求項1
の発明に係る評価を行うことにより、後処理において、
前記評価の結果に基づき前記主要部でない候補領域によ
る影響を低減することができる。
As described above, the post-processing using the result of evaluating the accuracy of the extracted candidate region as a region corresponding to the main part in the image includes, for example, A process for selecting a candidate region having a high degree of certainty as a region corresponding to a main part from the candidate regions, and weighting an extracted candidate region (or a candidate region selected from the extracted candidate regions) as described in claim 4 However, even if the extracted candidate area includes a candidate area that is not a main part in the image due to erroneous extraction of the area estimated to be the main part in the image, Item 1
By performing the evaluation according to the invention of the above, in the post-processing,
Based on the result of the evaluation, it is possible to reduce the influence of the candidate area that is not the main part.

【0016】例として、主要部に相当する領域としての
確度の高い候補領域を選択する場合には、抽出した候補
領域の中から主要部に相当する領域としての確度の評価
が高い候補領域のみを選択することで、実際には主要部
でない候補領域を除外することができる。また、例えば
抽出した候補領域に対して重み付けを行う場合には、主
要部に相当する領域としての確度の評価が高い候補領域
に高い重みを付し、主要部に相当する領域としての確度
の評価が低い候補領域の対する重みを小さくすること
で、実際には主要部でない候補領域による影響を小さく
することができる。
As an example, when selecting a candidate area having a high degree of certainty as an area corresponding to a main part, only candidate areas having a high degree of certainty evaluation as an area corresponding to a main part are selected from the extracted candidate areas. By selecting, it is possible to exclude a candidate area that is not actually a main part. In addition, for example, when weighting is performed on an extracted candidate region, a candidate region having a high degree of accuracy evaluation as a region corresponding to a main part is weighted with a high weight, and evaluation of accuracy as a region corresponding to a main part is performed. By reducing the weight of a candidate region having a low, it is possible to reduce the influence of a candidate region that is not actually a main part.

【0017】このように、請求項1の発明によれば、他
の候補領域との重複の有無及び重複度に基づいて、主要
部に相当する領域としての確度を、抽出した候補領域に
ついて評価しているので、この評価の結果に基づいて、
画像中の主要部に相当すると推定される領域の誤抽出に
よる影響を低減することができる。
As described above, according to the first aspect of the present invention, based on the presence / absence of overlap with other candidate areas and the degree of overlap, the accuracy as an area corresponding to the main part is evaluated for the extracted candidate area. So, based on the results of this assessment,
The effect of erroneous extraction of a region estimated to correspond to a main part in an image can be reduced.

【0018】なお、抽出した候補領域に対する評価結果
を利用する後処理として、抽出した候補領域から主要部
に相当する領域としての確度の高い候補領域を選択する
処理を行う場合には、請求項3に記載したように、抽出
した候補領域に対して主要部に相当する領域としての確
度を評価した結果を表す評価値を閾値と比較すること
で、抽出した候補領域から主要部に相当する領域として
の確度の高い候補領域を選択することが好ましい。これ
により、抽出された候補領域の中に実際には主要部でな
い候補領域が含まれていたとしても、該候補領域を評価
値に基づいて除外することができ、主要部に相当する領
域としての確度の高い候補領域を、簡易な処理によって
精度良く選択できると共に、閾値を変更することで候補
領域の選択の基準を補正することも可能となる。
As a post-process using the evaluation result of the extracted candidate region, when a process of selecting a candidate region having high accuracy as a region corresponding to a main part from the extracted candidate region is performed, As described in, by comparing the evaluation value representing the result of evaluating the accuracy as a region corresponding to the main portion with respect to the extracted candidate region to a threshold, the extracted candidate region is determined as a region corresponding to the main portion from the extracted candidate region. It is preferable to select a candidate area with high accuracy. With this, even if the extracted candidate area includes a candidate area that is not a main part in practice, the candidate area can be excluded based on the evaluation value, and the candidate area is determined as an area corresponding to the main part. A candidate area with high accuracy can be selected with high accuracy by simple processing, and the criterion for selecting a candidate area can be corrected by changing the threshold.

【0019】また、抽出した候補領域に対する評価結果
を利用する後処理として、請求項4に記載したように、
抽出した候補領域又は抽出した候補領域から選択した候
補領域を、主要部に相当する領域としての確度を評価し
た結果を表す評価値に従って重み付けし、主要部の画像
特徴量として、抽出した候補領域又は前記選択した候補
領域の画像特徴量の加重平均を演算する処理を行っても
よい。これにより、抽出された候補領域の中に実際には
主要部でない候補領域が含まれていたとしても、該候補
領域に対する重みを評価値に基づいて小さくすることが
でき、主要部の画像特徴量を簡単な処理により精度良く
求めることができる。なお請求項4の発明において、抽
出した候補領域から選択した候補領域を用いる場合の候
補領域の選択は、請求項3の発明と同様にして行うこと
ができる。
Further, as a post-process utilizing the evaluation result for the extracted candidate area,
An extracted candidate area or a candidate area selected from the extracted candidate areas is weighted according to an evaluation value representing the result of evaluating the accuracy as an area corresponding to the main part, and the extracted candidate area or Processing for calculating a weighted average of the image feature amounts of the selected candidate area may be performed. Thus, even if the extracted candidate area includes a candidate area that is not a main part, the weight for the candidate area can be reduced based on the evaluation value. Can be accurately obtained by simple processing. In the invention of the fourth aspect, the selection of the candidate area when using the candidate area selected from the extracted candidate areas can be performed in the same manner as the invention of the third aspect.

【0020】ところで、抽出した候補領域に対して主要
部に相当する領域としての確度を評価した後に行う後処
理としては、種々の処理が考えられるが、候補領域の誤
抽出や候補領域の誤評価があった場合に、後処理の処理
結果が受ける影響の程度は後処理の種類によって大きく
異なる。このため請求項5記載の発明は、請求項1の発
明において、抽出した候補領域に対して主要部に相当す
る領域としての確度を評価した後に、該評価の結果に基
づいて、主要部に相当する領域としての確度の高い候補
領域の選択及び抽出した候補領域の重み付けの少なくと
も一方を含む所定の画像処理を行う場合に、前記所定の
画像処理の種類に応じて、前記評価の基準を変更する
か、又は前記選択又は前記重み付けの基準を変更するこ
とを特徴としている。
Various processes can be considered as post-processing performed after evaluating the accuracy of the extracted candidate region as a region corresponding to the main part, but erroneous extraction of the candidate region and erroneous evaluation of the candidate region are possible. When there is, the degree of influence on the processing result of the post-processing greatly differs depending on the type of the post-processing. Therefore, according to the invention of claim 5, in the invention of claim 1, after the accuracy of the extracted candidate area as an area corresponding to the main part is evaluated, the extracted candidate area corresponds to the main part based on the evaluation result. When performing predetermined image processing including at least one of selection of a candidate region having high probability as a region to be performed and weighting of the extracted candidate region, the evaluation criterion is changed according to the type of the predetermined image processing. Alternatively, the selection or the weighting criterion is changed.

【0021】請求項5記載の発明によれば、例えば所定
の画像処理が、候補領域の誤抽出や候補領域の誤評価が
あると処理結果が多大な影響を受ける画像処理である場
合に、例えば請求項6に記載したように、主要部に相当
する領域としての確度の評価の基準が厳しくなるように
前記評価の基準を変更するか、主要部に相当する領域と
しての確度がより高いと評価された候補領域のみが選択
されるように前記選択の基準を変更するか、主要部に相
当する領域としての確度が低いと評価された候補領域に
対する重みが相対的に小さくなるように重み付けの基準
を変更することができる。これにより、後処理におい
て、抽出した候補領域のうち主要部に対応する候補領域
の一部が選択されなかったり重みが小さくされる等の不
都合が生ずる可能性はあるものの、候補領域の誤抽出や
候補領域の誤評価があったとしても、所定の処理の処理
結果が多大な影響を受けることを回避することができ
る。
According to the fifth aspect of the present invention, for example, when the predetermined image processing is an image processing in which the processing result is greatly affected by erroneous extraction of a candidate area or erroneous evaluation of a candidate area, As described in claim 6, the criterion of the evaluation is changed so that the criterion of the evaluation of the accuracy as the area corresponding to the main part is strict, or the accuracy of the area corresponding to the main part is higher. The criterion of the selection is changed so that only the selected candidate region is selected, or the weighting criterion is set so that the weight for the candidate region evaluated as having low accuracy as the region corresponding to the main part is relatively small. Can be changed. In this way, in the post-processing, there is a possibility that a part of the candidate area corresponding to the main part among the extracted candidate areas may not be selected or the weight may be reduced. Even if the candidate area is erroneously evaluated, it is possible to prevent the processing result of the predetermined processing from being greatly affected.

【0022】また、例えば所定の画像処理が、候補領域
の誤抽出や候補領域の誤評価があっても処理結果が受け
る影響の小さい画像処理である場合には、例えば請求項
7に記載したように、主要部に相当する領域としての確
度の評価の基準が緩くなるように前記評価の基準を変更
するか、主要部に相当する領域としての確度が低いと評
価された候補領域も選択されるように前記選択の基準を
変更するか、主要部に相当する領域としての確度が低い
と評価された候補領域に対する重みが相対的に大きくな
るように重み付けの基準を変更することができる。これ
により、候補領域の誤抽出や候補領域の誤評価があった
場合に、後処理において、実際には主要部でない候補領
域が選択されたり重みが大きくされる可能性はあるもの
の後処理の処理結果が受ける影響は小さくて済み、一
方、抽出した候補領域のうち主要部に対応する候補領域
が全て選択されたり、主要部に対応する候補領域に大き
な重みが付与される可能性が高くなるので適正な処理結
果が得られる。
For example, when the predetermined image processing is an image processing in which the influence of the processing result is small even if the candidate area is erroneously extracted or the candidate area is erroneously evaluated, the present invention is described in, for example, claim 7. Alternatively, the evaluation criterion may be changed so that the criterion of the evaluation of the accuracy as the area corresponding to the main part is loosened, or a candidate area evaluated as having low accuracy as the area corresponding to the main part may also be selected. In this manner, the selection criterion can be changed, or the weighting criterion can be changed such that the weight of the candidate area evaluated as having low accuracy as the area corresponding to the main part is relatively large. As a result, in the case where a candidate region is erroneously extracted or a candidate region is erroneously evaluated, in the post-processing, a candidate region which is not actually a main part may be selected or the weight may be increased. The effect on the result is small, and on the other hand, it is more likely that all candidate regions corresponding to the main part among the extracted candidate regions are selected, or that the candidate region corresponding to the main part is given a large weight. An appropriate processing result can be obtained.

【0023】このように、請求項5の発明によれば、抽
出した候補領域に対して主要部に相当する領域としての
確度を評価した後に所定の画像処理を行う場合に、所定
の画像処理の種類に応じて、評価の基準を変更するか、
又は選択又は重み付けの基準を変更するので、所定の画
像処理の種類に拘らず常に適正な処理結果を得ることが
できる。
As described above, according to the fifth aspect of the present invention, when the predetermined image processing is performed after the accuracy of the extracted candidate area as the area corresponding to the main part is evaluated, the predetermined image processing Depending on the type, change the evaluation criteria,
Alternatively, since the selection or weighting standard is changed, an appropriate processing result can always be obtained regardless of the type of predetermined image processing.

【0024】ところで、例えば逆光の照明条件下で人物
を撮影した画像を記録材料に記録する際に、画像中の高
輝度の背景部分を主要部(この場合は人物の顔)に相当
する領域と誤判定し、該領域の濃度に基づいて記録濃度
を制御したとすると、記録画像の品質は極度に低くな
る。また、例えば背景部分が低輝度の画像を記録材料に
記録する際に、前記低輝度の背景部分を主要部(逆光の
照明条件下でストロボを発光させずに撮影した人物の顔
等)に相当する領域と誤判定し、該領域の濃度に基づい
て記録濃度を制御した場合にも、記録画像の品質は極度
に低くなる。
For example, when an image of a person photographed under backlighting conditions is recorded on a recording material, a high-luminance background portion in the image is defined as an area corresponding to the main part (in this case, the face of the person). If an erroneous determination is made and the recording density is controlled based on the density of the area, the quality of the recorded image becomes extremely low. Further, for example, when recording an image having a low luminance background portion on a recording material, the low luminance background portion corresponds to a main portion (such as a face of a person photographed without emitting a strobe under backlighting lighting conditions). Also, when the recording density is erroneously determined as the area to be controlled and the recording density is controlled based on the density of the area, the quality of the recorded image is extremely low.

【0025】上記に基づき請求項8記載の発明は、請求
項1の発明において、候補領域内の濃度が第1の所定値
よりも高いか、又は第2の所定値よりも低い候補領域に
ついては、主要部に相当する領域としての確度の評価を
低くするか、又は前記主要部に相当する領域としての確
度の高い候補領域を選択する際の選択の基準を高くする
ことを特徴としている。
Based on the above, the invention according to claim 8 is based on the invention according to claim 1, wherein the density of the candidate area is higher than the first predetermined value or lower than the second predetermined value. It is characterized in that the evaluation of the accuracy as a region corresponding to the main part is reduced, or the selection criterion for selecting a candidate region with high accuracy as the region corresponding to the main part is raised.

【0026】請求項8の発明では、候補領域内の濃度が
第1の所定値よりも高いか、又は第2の所定値よりも低
い候補領域、すなわち候補領域内の濃度が極端に高いか
又は極端に低い候補領域については、主要部に相当する
領域としての確度の評価を低くするか又は主要部に相当
する領域としての確度の高い候補領域を選択する際の選
択の基準を高くするので、主要部に相当する領域として
の確度の評価を低くする場合には、濃度が極端に高いか
又は極端に低く候補領域として誤抽出された領域が、後
処理において、主要部に相当する領域としての確度が高
い候補領域として選択されたり、大きな重みが付与され
ることを防止することができる。
According to the invention of claim 8, the density in the candidate area is higher than the first predetermined value, or the density in the candidate area lower than the second predetermined value, that is, the density in the candidate area is extremely high. For extremely low candidate regions, the evaluation of accuracy as a region corresponding to the main part is reduced or the criterion of selection when selecting a candidate region with high accuracy as the region corresponding to the main part is increased, In the case of lowering the evaluation of the accuracy as a region corresponding to the main part, a region where the density is extremely high or extremely low and is erroneously extracted as a candidate region is determined as a region corresponding to the main part in post-processing. It is possible to prevent the region from being selected as a candidate region with high accuracy and from being given a large weight.

【0027】また後処理として、主要部に相当する領域
としての確度の高い候補領域の選択を含む処理を行うの
であれば、主要部に相当する領域としての確度の高い候
補領域の選択の基準を高くすることによっても、濃度が
極端に高いか又は極端に低く候補領域として誤抽出され
た領域が、主要部に相当する領域としての確度が高い候
補領域として選択されることを防止することができる。
従って、濃度が極端に高いか又は極端に低い領域が候補
領域として誤抽出された場合にも、後処理の処理結果が
不適正となることを回避できる。
If a process including the selection of a candidate region having a high degree of certainty as a region corresponding to the main part is performed as the post-processing, the criterion for selecting a candidate region having a high degree of certainty as a region corresponding to the main part is determined. By increasing the value, it is possible to prevent a region in which the density is extremely high or extremely low and is erroneously extracted as a candidate region from being selected as a candidate region having a high probability as a region corresponding to a main part. .
Therefore, even when a region having an extremely high or extremely low density is erroneously extracted as a candidate region, it is possible to prevent the processing result of the post-processing from becoming inappropriate.

【0028】請求項9記載の発明に係る画像処理装置
は、画像データに基づいて、該画像データが表す画像中
の主要部に相当すると推定される候補領域を抽出する抽
出手段と、前記抽出した候補領域のうち、画像上で他の
候補領域と重複している候補領域について、前記他の候
補領域との重複度を求める演算手段と、他の候補領域と
重複している候補領域に対する前記画像中の主要部に相
当する領域としての確度の評価が、他の候補領域と重複
していない候補領域に対する前記評価よりも高くなり、
かつ他の候補領域との重複度が高くなるに従って更に高
くなるように、前記抽出した候補領域に対して前記主要
部に相当する領域としての確度を評価する評価手段と、
を含んで構成されているので、請求項1の発明と同様
に、画像中の主要部に相当すると推定される領域の誤抽
出による影響を低減することができる。
According to a ninth aspect of the present invention, there is provided an image processing apparatus, comprising: extracting means for extracting a candidate area estimated to correspond to a main part in an image represented by the image data, based on the image data; Calculating means for calculating a degree of overlap with the other candidate area for a candidate area overlapping with another candidate area on the image among the candidate areas; The evaluation of the accuracy as a region corresponding to the main part in becomes higher than the above evaluation for a candidate region that does not overlap with other candidate regions,
Evaluation means for evaluating the accuracy of the extracted candidate region as a region corresponding to the main part, so that the degree of overlap with another candidate region is higher as the degree of overlap with the other candidate region is higher,
Therefore, similarly to the first aspect of the present invention, it is possible to reduce the influence of erroneous extraction of a region estimated to correspond to a main part in an image.

【0029】請求項10記載の発明に係る記録媒体は、
画像データに基づいて、該画像データが表す画像中の主
要部に相当すると推定される候補領域を抽出する第1の
ステップ、前記抽出した候補領域のうち、画像上で他の
候補領域と重複している候補領域について、前記他の候
補領域との重複度を求める第2のステップ、他の候補領
域と重複している候補領域に対する前記画像中の主要部
に相当する領域としての確度の評価が、他の候補領域と
重複していない候補領域に対する前記評価よりも高くな
り、かつ他の候補領域との重複度が高くなるに従って更
に高くなるように、前記抽出した候補領域に対して前記
主要部に相当する領域としての確度を評価する第3のス
テップを含む処理をコンピュータに実行させるためのプ
ログラムが記憶されている。
[0029] The recording medium according to claim 10 is
A first step of extracting, based on the image data, a candidate area estimated to correspond to a main part in the image represented by the image data, of the extracted candidate areas, overlapping with another candidate area on the image; A second step of obtaining the degree of overlap with the other candidate area for the candidate area, and evaluating the likelihood of the candidate area overlapping with the other candidate area as the area corresponding to the main part in the image. The main part of the extracted candidate area is higher than the evaluation for a candidate area not overlapping with another candidate area, and further higher as the degree of overlap with another candidate area is higher. And a program for causing a computer to execute a process including a third step of evaluating the accuracy as an area corresponding to.

【0030】請求項10記載の発明に係る記録媒体に
は、上記の第1のステップ乃至第3のステップを含む処
理、すなわち請求項1の発明に記載の画像処理方法に係
る処理をコンピュータに実行させるためのプログラムが
記録されているので、コンピュータが前記記録媒体に記
録されているプログラムを読み出して実行することによ
り、請求項1の発明と同様に、画像中の主要部に相当す
ると推定される領域の誤抽出による影響を低減すること
ができる。
The recording medium according to the tenth aspect of the present invention executes the processing including the first to third steps, that is, the processing according to the image processing method according to the first aspect of the present invention on a computer. Since the program for causing the computer to read the program is recorded on the recording medium, the computer reads and executes the program recorded on the recording medium. The effect of erroneous region extraction can be reduced.

【0031】[0031]

【発明の実施の形態】以下、図面を参照し、本発明の実
施形態の一例を詳細に説明する。図1には、本発明が適
用された画像処理システム10が示されている。画像処
理システム10は、スキャナ12、画像処理装置14及
びプリンタ16が直列に接続されて構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows an image processing system 10 to which the present invention is applied. The image processing system 10 includes a scanner 12, an image processing device 14, and a printer 16 connected in series.

【0032】スキャナ12は、写真フィルム(例えばネ
ガフィルムやリバーサルフィルム)等の写真感光材料
(以下単に写真フィルムと称する)に記録されているフ
ィルム画像(被写体を撮影後、現像処理されることで可
視化されたネガ画像又はポジ画像)を読み取り、該読み
取りによって得られた画像データを出力するものであ
り、光源20から射出され光拡散ボックス22によって
光量むらが低減された光が、フィルムキャリア24にセ
ットされているネガフィルムやリバーサルフィルム等の
写真フィルム26に照射され、写真フィルム26を透過
した光がレンズ28を介してCCDセンサ30(エリア
センサであってもラインセンサであってもよい)の受光
面上に結像されるように構成されている。
The scanner 12 captures a film image recorded on a photographic photosensitive material (hereinafter simply referred to as a photographic film) such as a photographic film (for example, a negative film or a reversal film), and visualizes the image by developing the object. And outputs image data obtained by the reading. The light emitted from the light source 20 and the light amount unevenness of which is reduced by the light diffusion box 22 is set on the film carrier 24. Irradiated on a photographic film 26 such as a negative film or a reversal film, and transmitted through the photographic film 26, is received by a CCD sensor 30 (which may be an area sensor or a line sensor) via a lens 28. It is configured to be imaged on a plane.

【0033】フィルムキャリア24は、写真フィルム2
6上のフィルム画像が記録されている箇所が、光源20
からの射出光の光軸上に順に位置するように写真フィル
ム26を搬送する。これにより、写真フィルム26に記
録されているフィルム画像がCCDセンサ30によって
順に読み取られ、CCDセンサ30からはフィルム画像
に対応する信号が出力される。CCDセンサ30から出
力された信号はA/D変換器32によってデジタルの画
像データに変換されて画像処理装置14に入力される。
The film carrier 24 is a photographic film 2
6 is the light source 20 where the film image is recorded.
The photographic film 26 is conveyed so as to be sequentially positioned on the optical axis of the light emitted from the camera. Thus, the film images recorded on the photographic film 26 are sequentially read by the CCD sensor 30, and the CCD sensor 30 outputs a signal corresponding to the film image. The signal output from the CCD sensor 30 is converted into digital image data by the A / D converter 32 and input to the image processing device 14.

【0034】画像処理装置14のラインスキャナ補正部
36は、入力されたスキャンデータ(スキャナ12から
入力されるR、G、Bのデータ)から各画素毎に対応す
るセルの暗出力レベルを減ずる暗補正、暗補正を行った
データを濃度値を表すデータに対数変換する濃度変換、
写真フィルム26を照明する光の光量むらに応じて濃度
変換後のデータを補正するシェーディング補正、該シェ
ーディング補正を行ったデータのうち入射光量に対応し
た信号が出力されないセル(所謂欠陥画素)のデータを
周囲の画素のデータから補間して新たに生成する欠陥画
素補正の各処理を順に行う。ラインスキャナ補正部36
の出力端はI/Oコントローラ38の入力端に接続され
ており、ラインスキャナ補正部36で前記各処理が施さ
れたデータはスキャンデータとしてI/Oコントローラ
38に入力される。
The line scanner correction unit 36 of the image processing apparatus 14 performs a dark scan for subtracting the dark output level of the cell corresponding to each pixel from the input scan data (R, G, B data input from the scanner 12). Density conversion to logarithmically convert the corrected and dark corrected data to data representing the density value,
Shading correction for correcting data after density conversion according to unevenness in the amount of light illuminating the photographic film 26, and data of cells (so-called defective pixels) from which data corresponding to the amount of incident light is not output among the data subjected to the shading correction Are interpolated from the data of the surrounding pixels, and each process of the defective pixel correction newly generated is sequentially performed. Line scanner correction unit 36
Is connected to the input terminal of the I / O controller 38, and the data subjected to each of the above processes in the line scanner correction unit 36 is input to the I / O controller 38 as scan data.

【0035】I/Oコントローラ38の入力端は、イメ
ージプロセッサ40のデータ出力端にも接続されてお
り、イメージプロセッサ40からは画像処理(詳細は後
述)が行われた画像データが入力される。また、I/O
コントローラ38の入力端はパーソナルコンピュータ4
2にも接続されている。パーソナルコンピュータ42は
拡張スロット(図示省略)を備えており、この拡張スロ
ットには、メモリカードやCD−R等の情報記憶媒体に
対してデータの読出し/書込みを行うドライバ(図示省
略)や、他の情報処理機器と通信を行うための通信制御
装置が接続される。拡張スロットを介して外部からファ
イル画像データが入力された場合、入力されたファイル
画像データはI/Oコントローラ38へ入力される。
The input terminal of the I / O controller 38 is also connected to the data output terminal of the image processor 40, from which image data subjected to image processing (details will be described later) is input. Also, I / O
The input terminal of the controller 38 is the personal computer 4
2 is also connected. The personal computer 42 has an expansion slot (not shown). The expansion slot includes a driver (not shown) for reading / writing data from / to an information storage medium such as a memory card or a CD-R, and other components. A communication control device for communicating with the information processing device is connected. When file image data is input from outside via the expansion slot, the input file image data is input to the I / O controller 38.

【0036】I/Oコントローラ38の出力端は、イメ
ージプロセッサ40のデータ入力端、オートセットアッ
プエンジン44、パーソナルコンピュータ42に各々接
続されており、更にI/F回路54を介してプリンタ1
6に接続されている。I/Oコントローラ38は、入力
された画像データを、出力端に接続された前記各機器に
選択的に出力する。
An output terminal of the I / O controller 38 is connected to a data input terminal of the image processor 40, an auto setup engine 44, and a personal computer 42, respectively.
6 is connected. The I / O controller 38 selectively outputs the input image data to each of the devices connected to the output terminal.

【0037】本実施形態では、写真フィルム26に記録
されている個々のフィルム画像に対し、スキャナ12に
おいて異なる解像度で2回の読み取りを行う。1回目の
比較的低解像度での読み取り(以下、プレスキャンとい
う)では、フィルム画像の濃度が非常に低い場合(例え
ばネガフィルムにおける露光アンダのネガ画像)にも、
CCDセンサ30で蓄積電荷の飽和が生じないように決
定した読取条件(写真フィルム26に照射する光のR、
G、Bの各波長域毎の光量、CCDセンサ30の電荷蓄
積時間)で写真フィルム26の全面の読み取りが行われ
る。このプレスキャンによって得られたデータ(プレス
キャンデータ)は、I/Oコントローラ38からオート
セットアップエンジン44へ入力される。
In the present embodiment, the scanner 12 performs two readings at different resolutions on each film image recorded on the photographic film 26. In the first reading at a relatively low resolution (hereinafter, referred to as pre-scan), even when the density of the film image is very low (for example, a negative image with exposure under in a negative film),
The reading conditions (R, R of light to be applied to the photographic film 26) determined by the CCD sensor 30 so as not to cause saturation of the accumulated charges.
The reading of the entire surface of the photographic film 26 is performed using the light amounts of the respective wavelength ranges of G and B (the charge accumulation time of the CCD sensor 30). Data (prescan data) obtained by this prescan is input from the I / O controller 38 to the auto setup engine 44.

【0038】オートセットアップエンジン44は、CP
U46、RAM48(例えばDRAM)、ROM50
(例えば記憶内容を書換え可能なROM)、入出力ポー
ト52を備え、これらがバスを介して互いに接続されて
構成されている。オートセットアップエンジン44は、
I/Oコントローラ38から入力されたプレスキャンデ
ータに基づいてフィルム画像のコマ位置を判定し、写真
フィルム26上のフィルム画像記録領域に対応するデー
タ(プレスキャン画像データ)を抽出する。また、プレ
スキャン画像データに基づいて、フィルム画像のサイズ
を判定すると共に濃度等の画像特徴量を演算し、プレス
キャンを行った写真フィルム26に対し、スキャナ12
が比較的高解像度での再度の読み取り(以下、ファイン
スキャンという)を行う際の読取条件を決定する。そし
てコマ位置及び読取条件をスキャナ12に出力する。
The auto setup engine 44 includes a CP
U46, RAM48 (for example, DRAM), ROM50
(For example, a rewritable ROM) and an input / output port 52, which are connected to each other via a bus. The auto setup engine 44
The frame position of the film image is determined based on the pre-scan data input from the I / O controller 38, and data (pre-scan image data) corresponding to the film image recording area on the photographic film 26 is extracted. Further, based on the pre-scanned image data, the size of the film image is determined, and image feature amounts such as density are calculated.
Determines the reading conditions when re-reading at a relatively high resolution (hereinafter, referred to as fine scan). Then, the frame position and the reading conditions are output to the scanner 12.

【0039】また、オートセットアップエンジン44
は、プレスキャン画像データに基づいて、フィルム画像
中の主要部(例えば人物の顔に相当する領域(顔領域))
の抽出を含む画像特徴量の演算を行い、スキャナ12が
ファインスキャンを行うことによって得られる画像デー
タ(ファインスキャン画像データ)に対する各種の画像
処理の処理条件を演算により自動的に決定し(セットア
ップ演算)、決定した処理条件をイメージプロセッサ4
0へ出力する。
The auto setup engine 44
Is a main part in the film image based on the prescanned image data (for example, an area corresponding to a human face (face area))
Of image features including the extraction of image data, and automatically determine processing conditions for various types of image processing on image data (fine scan image data) obtained by the scanner 12 performing fine scan (setup calculation) ), The determined processing conditions are applied to the image processor 4
Output to 0.

【0040】パーソナルコンピュータ42には、ディス
プレイ、キーボード、及びマウスが接続されている(何
れも図示省略)。パーソナルコンピュータ42は、オー
トセットアップエンジン44からプレスキャン画像デー
タを取込むと共に、オートセットアップエンジン44に
よって決定された画像処理の処理条件を取込み、取り込
んだ処理条件に基づき、ファインスキャン画像データを
対象としてイメージプロセッサ40で行われる画像処理
と等価な画像処理をプレスキャン画像データに対して行
ってシミュレーション画像データを生成する。
A display, a keyboard, and a mouse are connected to the personal computer 42 (all are not shown). The personal computer 42 captures the pre-scan image data from the auto setup engine 44, captures the processing conditions of the image processing determined by the auto setup engine 44, and images the fine scan image data based on the captured processing conditions. Image processing equivalent to the image processing performed by the processor 40 is performed on the prescanned image data to generate simulation image data.

【0041】そして、生成したシミュレーション画像デ
ータを、ディスプレイに画像を表示するための信号に変
換し、該信号に基づいてディスプレイにシミュレーショ
ン画像を表示する。また、表示されたシミュレーション
画像に対しオペレータによって画質等の検定が行われ、
検定結果として処理条件の修正を指示する情報がキーボ
ードを介して入力されると、該情報をオートセットアッ
プエンジン44へ出力する。これにより、オートセット
アップエンジン44では画像処理の処理条件の再演算等
の処理が行われる。
The generated simulation image data is converted into a signal for displaying an image on a display, and a simulation image is displayed on the display based on the signal. In addition, the operator checks the displayed simulation image for image quality and the like,
When the information for instructing the correction of the processing conditions is input via the keyboard as the test result, the information is output to the auto setup engine 44. As a result, the auto setup engine 44 performs processing such as recalculation of the processing conditions of the image processing.

【0042】一方、スキャナ12でフィルム画像に対し
てファインスキャンが行われることによってI/Oコン
トローラ38に入力された画像データ(ファインスキャ
ン画像データ)は、I/Oコントローラ38からイメー
ジプロセッサ40へ入力される。イメージプロセッサ4
0は、階調変換や色変換を含む色・濃度補正処理、画素
密度変換処理、画像の超低周波輝度成分の階調を圧縮す
るハイパートーン処理、粒状を抑制しながらシャープネ
スを強調するハイパーシャープネス処理等の各種の画像
処理を行う画像処理回路を各々備えており、入力された
画像データに対し、オートセットアップエンジン44に
よって各画像毎に決定されて通知された処理条件に従っ
て種々の画像処理を行う。
On the other hand, image data (fine scan image data) input to the I / O controller 38 by performing fine scan on the film image by the scanner 12 is input to the image processor 40 from the I / O controller 38. Is done. Image processor 4
0 denotes color / density correction processing including gradation conversion and color conversion, pixel density conversion processing, hypertone processing for compressing the gradation of an ultra-low frequency luminance component of an image, and hyper-sharpness for enhancing sharpness while suppressing graininess. An image processing circuit that performs various image processing such as processing is provided, and performs various image processing on input image data according to processing conditions determined and notified for each image by the auto setup engine 44. .

【0043】イメージプロセッサ40で実行可能な画像
処理としては、上記以外に、例えば画像全体又は一部分
(例えば人物の顔に相当する領域)に対するシャープネ
ス補正又はソフトフォーカス処理や、画調を意図的に変
更する画像処理(出力画像をモノトーンに仕上げる画像
処理、出力画像をポートレート調に仕上げる画像処理、
出力画像をセピア調に仕上げる画像処理等)や、画像を
加工する画像処理(例えば原画像中に存在する人物を主
画像上で細身に仕上げるための画像処理、赤目を修正す
る画像処理等)や、LF(レンズ付きフィルム)によっ
て撮影された画像に対し、LFのレンズの歪曲収差、倍
率色収差に起因する画像の幾何学的歪み、色ずれを補正
するLF収差補正処理や、LFのレンズの周辺減光に起
因する画像の周縁部の明度低下を補正する周辺減光補正
処理や、LFのレンズの特性に起因する画像の鮮鋭度の
低下を補正するピントボケ補正処理等のように、LFの
レンズの特性に起因する出力画像の画質の低下を補正す
る各種のLF収差補正処理等が挙げられる。
The image processing that can be executed by the image processor 40 includes, in addition to the above, for example, sharpness correction or soft focus processing on the entire image or a part thereof (for example, a region corresponding to a human face), or intentionally changing the image tone. Image processing (image processing to finish the output image in monotone, image processing to finish the output image in portrait tone,
Image processing for finishing the output image in sepia tone, etc.), image processing for processing the image (for example, image processing for finishing a person existing in the original image to be thin on the main image, image processing for correcting red eye, etc.), , LF (film with lens), LF aberration correction processing for correcting distortion of the LF lens, geometric distortion of the image due to chromatic aberration of magnification, and color shift, and the periphery of the LF lens LF lens such as peripheral dimming correction processing for correcting a decrease in the brightness of the peripheral portion of an image due to light reduction, and defocus correction processing for correcting a decrease in image sharpness due to the characteristics of the LF lens And various types of LF aberration correction processing for correcting the deterioration of the image quality of the output image due to the above characteristics.

【0044】イメージプロセッサ40で画像処理が行わ
れた画像データを印画紙への画像の記録に用いる場合に
は、イメージプロセッサ40で画像処理が行われた画像
データは、I/Oコントローラ38からI/F回路54
を介し記録用画像データとしてプリンタ16へ出力され
る。また、画像処理後の画像データを画像ファイルとし
て外部へ出力する場合は、I/Oコントローラ38から
パーソナルコンピュータ42に画像データが出力され
る。これにより、パーソナルコンピュータ42では、外
部への出力用としてI/Oコントローラ38から入力さ
れた画像データを、拡張スロットを介して画像ファイル
として外部(前記ドライバや通信制御装置等)に出力す
る。
When the image data processed by the image processor 40 is used for recording an image on photographic paper, the image data processed by the image processor 40 is transmitted from the I / O controller 38 to the I / O controller 38. / F circuit 54
Is output to the printer 16 as image data for recording via the. When the image data after the image processing is output to the outside as an image file, the image data is output from the I / O controller 38 to the personal computer 42. As a result, the personal computer 42 outputs the image data input from the I / O controller 38 for output to the outside to the outside (the driver, the communication control device, or the like) as an image file via the expansion slot.

【0045】プリンタ16は、画像メモリ58、R,
G,Bのレーザ光源60、該レーザ光源60の作動を制
御するレーザドライバ62を備えている。画像処理装置
14から入力された記録用画像データは画像メモリ58
に一旦記憶された後に読み出され、レーザ光源60から
射出されるR,G,Bのレーザ光の変調に用いられる。
レーザ光源60から射出されたレーザ光は、ポリゴンミ
ラー64、fθレンズ66を介して印画紙68上を走査
され、印画紙68に画像が露光記録される。画像が露光
記録された印画紙68は、プロセッサ部18へ送られて
発色現像、漂白定着、水洗、乾燥の各処理が施される。
これにより、印画紙68に露光記録された画像が可視化
される。
The printer 16 has image memories 58, R,
G and B laser light sources 60 and a laser driver 62 for controlling the operation of the laser light sources 60 are provided. The image data for recording input from the image processing device 14 is stored in the image memory 58.
Is read out after being stored once, and is used for modulating the R, G, B laser light emitted from the laser light source 60.
The laser light emitted from the laser light source 60 is scanned on a printing paper 68 via a polygon mirror 64 and an fθ lens 66, and an image is exposed and recorded on the printing paper 68. The photographic paper 68 on which the image has been exposed and recorded is sent to the processor section 18 and subjected to color development, bleach-fixing, washing and drying.
Thus, the image recorded on the printing paper 68 by exposure is visualized.

【0046】次に本実施形態の作用として、スキャナ1
2から画像処理装置14にプレスキャンデータが入力さ
れ、オートセットアップエンジン44において、プレス
キャンデータからの画像データの切り出し等の処理を行
った後で行われる顔領域抽出・濃度演算処理について説
明する。
Next, as an operation of the present embodiment, the scanner 1
A description will now be given of the face area extraction / density calculation processing performed after the pre-scan data is input to the image processing apparatus 14 from the image processing unit 2 and the auto setup engine 44 performs processing such as clipping of image data from the pre-scan data.

【0047】この顔領域抽出・濃度演算処理は、本発明
に係る画像処理方法が適用された処理であり、オートセ
ットアップエンジン44のCPU46により、顔領域抽
出・濃度補正プログラムが実行されることにより実現さ
れる。顔領域抽出・濃度補正プログラムは、その他の処
理をCPU46で実行させるためのプログラムと共に、
当初は、情報記憶媒体72(図1参照)に記憶されてい
る。なお、図1では情報記憶媒体72をフロッピーディ
スクとして示しているが、CD−ROMやメモリカード
等で構成してもよい。パーソナルコンピュータ42に接
続された情報読出装置(図示省略)に情報記憶媒体72
が装填され、情報記憶媒体72から画像処理装置14へ
のプログラムの移入(インストール)が指示されると、
情報読出装置によって情報記憶媒体72から顔領域抽出
・濃度補正プログラム等が読み出され、記憶内容を書換
え可能なROM50に記憶される。
This face area extraction / density calculation processing is processing to which the image processing method according to the present invention is applied, and is realized by executing a face area extraction / density correction program by the CPU 46 of the auto setup engine 44. Is done. The face area extraction / density correction program includes a program for causing the CPU 46 to execute other processing.
Initially, it is stored in the information storage medium 72 (see FIG. 1). Although the information storage medium 72 is shown as a floppy disk in FIG. 1, it may be constituted by a CD-ROM, a memory card, or the like. An information storage medium 72 is stored in an information reading device (not shown) connected to the personal computer 42.
Is loaded, and an instruction to transfer (install) a program from the information storage medium 72 to the image processing apparatus 14 is issued.
A face area extraction / density correction program and the like are read from the information storage medium 72 by the information reading device, and stored in the rewritable ROM 50.

【0048】そして、顔領域抽出・濃度補正処理を実行
すべきタイミングが到来すると、ROM50から顔領域
抽出・濃度補正プログラムが読み出され、顔領域抽出・
濃度補正プログラムがCPU46によって実行される。
これにより、オートセットアップエンジン44は本発明
に係る画像処理装置として機能する。このように、顔領
域抽出・濃度補正プログラム等を記憶している情報記憶
媒体72は請求項10に記載の記録媒体に対応してい
る。
When the timing to execute the face area extraction / density correction processing comes, the face area extraction / density correction program is read from the ROM 50, and the face area extraction / density correction program is executed.
The density correction program is executed by the CPU 46.
Thereby, the auto setup engine 44 functions as the image processing device according to the present invention. As described above, the information storage medium 72 storing the face area extraction / density correction program and the like corresponds to the recording medium according to claim 10.

【0049】以下、顔領域抽出・濃度補正処理につい
て、図2のフローチャートを参照して説明する。ステッ
プ100では、処理対象の画像データに基づき、画像デ
ータが表す画像中の主要部として、画像中の人物の顔に
相当すると推定される領域(顔候補領域を抽出する顔候
補領域抽出処理を行う。この顔候補領域抽出処理を行う
ための抽出方式としては、画像中の人物の顔に相当する
と推定される領域を判断し、該領域を顔候補領域として
抽出する顔候補領域抽出方式や、画像中の背景に相当す
ると推定される領域(背景領域)を判断し、背景領域以
外の領域を顔候補領域として抽出する背景部除去方式等
があり、具体的には、従来より公知の、下記のような顔
候補抽出方式、背景除去方式のうちの少なくとも何れか
を採用して顔候補領域抽出処理を行うことができる。
Hereinafter, the face area extraction / density correction processing will be described with reference to the flowchart of FIG. In step 100, based on the image data to be processed, a region (a face candidate region extraction process for extracting a face candidate region that is assumed to correspond to a face of a person in the image is performed as a main part in the image represented by the image data. As an extraction method for performing the face candidate area extraction processing, a face candidate area extraction method in which an area estimated to correspond to a face of a person in an image is determined and the area is extracted as a face candidate area, There is a background part removal method that determines an area (background area) estimated to correspond to the middle background and extracts an area other than the background area as a face candidate area, and the like. The face candidate region extraction processing can be performed by employing at least one of the face candidate extraction method and the background removal method.

【0050】〔顔候補領域抽出方式の例1〕画像を多数
の測定点に分割すると共に各測定点をR、G、Bの3色
に分解することにより得られたデータ(画像データ)に
基づいて、各測定点が色座標上で肌色の範囲内に含まれ
ているか否か判定し、肌色の範囲内と判断した測定点の
クラスタ(群)が存在している領域を顔候補領域として
抽出する(特開昭 52-156624号公報、特開昭 52-156625
号公報、特開昭53-12330号公報、特開昭 53-145620号公
報、特開昭 53-145621号公報、特開昭 53-145622号公報
等参照)。
[Example 1 of Face Candidate Area Extraction Method] Based on data (image data) obtained by dividing an image into a number of measurement points and decomposing each measurement point into R, G, and B colors. Then, it is determined whether or not each measurement point is included in the range of the skin color on the color coordinates, and an area in which a cluster (group) of the measurement points determined to be within the range of the skin color is extracted as a face candidate area. (JP-A-52-156624, JP-A-52-156625)
JP-A-53-12330, JP-A-53-145620, JP-A-53-145621, JP-A-53-145622, etc.).

【0051】〔顔候補領域抽出方式の例2〕前記画像デ
ータに基づいて、色相値(及び彩度値)についてのヒス
トグラムを求め、求めたヒストグラムを山毎に分割し、
各測定点が分割した山の何れに属するかを判断して各測
定点を分割した山に対応する群に分け、各群毎に画像を
複数の領域に分割し、該複数の領域のうち人物の顔に相
当する領域を推定し、推定した領域を顔候補領域として
抽出する(特開平4-346333号公報参照)。
[Example 2 of Face Candidate Area Extraction Method] Based on the image data, a histogram for hue values (and saturation values) is obtained, and the obtained histogram is divided for each mountain.
It is determined which of the divided mountains each measurement point belongs to, and each measurement point is divided into groups corresponding to the divided mountains, and the image is divided into a plurality of regions for each group, and a person is selected from the plurality of regions. Is estimated, and the estimated area is extracted as a face candidate area (see Japanese Patent Application Laid-Open No. 4-346333).

【0052】〔顔候補領域抽出方式の例3〕前記画像デ
ータに基づいて、画像中に存在する人物の各部に特有の
形状パターン(例えば頭部の輪郭、顔の輪郭、顔の内部
構造、胴体の輪郭等を表す形状パターン)の何れか1つ
を探索し、検出した形状パターンの大きさ、向き、検出
した形状パターンが表す人物の所定部分と人物の顔との
位置関係に応じて、人物の顔に相当すると推定される領
域を設定する。また、検出した形状パターンと異なる他
の形状パターンを探索し、先に設定した領域の、人物の
顔としての整合性を求め、顔候補領域を抽出する(特開
平8-122944号公報、特開平8-183925号公報、特開平9-13
8471号公報等参照)。
[Example 3 of Face Candidate Area Extraction Method] Based on the image data, a shape pattern specific to each part of the person existing in the image (eg, the outline of the head, the outline of the face, the internal structure of the face, the torso) Any one of the shape patterns representing the contours of the person, and the size and direction of the detected shape pattern and the positional relationship between the predetermined portion of the person represented by the detected shape pattern and the face of the person. An area estimated to correspond to the face is set. Further, another shape pattern different from the detected shape pattern is searched for, the consistency of the previously set region as a human face is determined, and a face candidate region is extracted (Japanese Patent Laid-Open Nos. 8-122944 and 8-122944). 8-183925, JP-A-9-13
No. 8471).

【0053】〔背景部除去方式の例1〕前記画像データ
に基づいて、各測定点が、色座標上で明らかに背景に属
する特定の色(例えば空や海の青、芝生や木の緑等)の
範囲内に含まれているか否か判定し、前記特定の色範囲
内と判断した測定点のクラスタ(群)が存在している領
域を背景領域と判断して除去し、残った領域を非背景領
域(人物の顔に相当する領域が含まれている可能性の高
い領域:これも本発明の顔候補領域)として抽出する。
[Example 1 of Background Removal Method] Based on the image data, each measurement point is a specific color (for example, sky or sea blue, lawn or tree green, etc.) that clearly belongs to the background on the color coordinates. ) Is determined to be included in the range, the area in which the cluster (group) of the measurement points determined to be within the specific color range is determined to be the background area and removed, and the remaining area is determined. It is extracted as a non-background area (an area that is likely to include an area corresponding to a human face: this is also a face candidate area of the present invention).

【0054】〔背景部除去方式の例2〕前記画像データ
に基づき、先の主要部抽出方式の例2と同様にして画像
を複数の領域に分割した後に、各領域毎に背景に相当す
る領域としての特徴量(輪郭に含まれる直線部分の比
率、線対称度、凹凸数、画像外縁との接触率、領域内の
濃度コントラスト、領域内の濃度の変化パターンの有無
等)を求め、求めた特徴量に基づいて各領域が背景領域
か否か判定し背景部と判断した領域を除去し、残った領
域を非背景領域(顔候補領域)として抽出する(特開平
8-122944号公報、特開平8-183925号公報等参照)。
[Example 2 of Background Removal Method] Based on the image data, the image is divided into a plurality of regions in the same manner as in Example 2 of the main part extraction method, and then each region corresponds to the background. (The ratio of the linear portion included in the contour, the degree of line symmetry, the number of irregularities, the contact ratio with the outer edge of the image, the density contrast in the area, the presence or absence of a density change pattern in the area, etc.) It is determined whether or not each area is a background area based on the feature amount, the area determined as the background part is removed, and the remaining area is extracted as a non-background area (face candidate area)
8-122944 and JP-A-8-183925).

【0055】なお上記の抽出方式は単なる一例であり、
画像から人物の顔に相当すると推定される領域を抽出す
る抽出方式であれば、どのような方式であっても適用可
能であることは言うまでもない。またステップ100で
は、複数種の抽出方式を各々適用して顔候補領域抽出処
理を複数回行ってもよいし、単一種の抽出方式で処理条
件を各々変えて顔候補領域抽出処理を複数回行うように
してもよい。
The above extraction method is merely an example,
It goes without saying that any method can be applied as long as it is an extraction method for extracting an area estimated to correspond to a human face from an image. In step 100, the face candidate region extraction process may be performed a plurality of times by applying a plurality of types of extraction methods, or the face candidate region extraction process may be performed a plurality of times by changing the processing conditions by a single type of extraction method. You may do so.

【0056】ステップ100における顔候補領域抽出処
理により、例として図3に示すように、処理対象の画像
から複数の顔候補領域(図3では顔候補領域A〜D)が
抽出される。なお、ステップ100は請求項9に記載の
抽出手段に対応している。なお、以降の処理では顔候補
領域抽出処理によって抽出された顔候補領域に対して処
理を行うが、抽出された顔候補領域そのものを処理対象
としてもよいし、抽出された顔候補領域に外接する一定
形状の領域(例えば円形領域や矩形領域)を処理対象と
してもよい。
By the face candidate area extracting process in step 100, a plurality of face candidate areas (face candidate areas A to D in FIG. 3) are extracted from the image to be processed, as shown in FIG. 3, for example. Step 100 corresponds to the extracting means described in claim 9. In the following processing, the processing is performed on the face candidate area extracted by the face candidate area extraction processing, but the extracted face candidate area itself may be the processing target, or the extracted face candidate area may be circumscribed. A region having a fixed shape (for example, a circular region or a rectangular region) may be set as a processing target.

【0057】ステップ102では、ステップ100の顔
候補領域抽出処理によって抽出された顔候補領域を全て
取り込み、次のステップ104では、取り込んだ顔候補
領域の中に、画像上で互いに重複している顔候補領域
(例として図3に示す顔候補領域A,B,Cを参照)が
有るか否か判定する。判定が肯定された場合にはステッ
プ106へ移行し、互いに重複している単一の顔候補領
域対(先の例では顔候補領域A,B、又は顔候補領域
A,C、又は顔候補領域B,C)を処理対象として取り
出し、次のステップ108では取り出した顔候補領域対
のサイズを基準として顔候補領域の重複度xを演算す
る。なお、ステップ108は先のステップ106と共に
請求項9に記載の演算手段に対応している。
In step 102, all the face candidate areas extracted by the face candidate area extraction processing in step 100 are fetched, and in the next step 104, the face candidates overlapping on the image are included in the fetched face candidate areas. It is determined whether or not there is a candidate area (for example, see face candidate areas A, B, and C shown in FIG. 3). If the determination is affirmative, the process proceeds to step 106, where a single face candidate area pair overlapping each other (face candidate areas A and B or face candidate areas A and C or face candidate area B, C) are extracted as processing targets, and in the next step 108, the degree of overlap x of the face candidate area is calculated based on the size of the extracted face candidate area pair. Step 108, together with step 106, corresponds to the calculating means according to the ninth aspect.

【0058】重複度xは、例えば図4(A)に示すよう
に顔候補領域Aと顔候補領域Bが重複しており、顔候補
領域Aの面積をSA 、顔候補領域Bの面積をSB 、重複
している領域の面積をSABとすると、例として次の
(1)式に従って演算することができる。
For example, as shown in FIG. 4A, the face candidate area A and the face candidate area B overlap, and the area of the face candidate area A is S A and the area of the face candidate area B is Assuming that S B and the area of the overlapping region are S AB , for example, the calculation can be performed according to the following equation (1).

【0059】 x=min(SAB/SA ,SAB/SB ) …(1) (1)式において、min( )は括弧内の数値の最小値を選
択することを表す演算子であり、SAB/SA は顔候補領
域Aの面積SA を基準にして重複領域の面積S ABを正規
化した値、SAB/SB は顔候補領域Bの面積SB を基準
にして重複領域の面積SABを正規化した値であるので、
(1)式は、重複している顔候補領域対A,Bの各々の
大きさ(面積)を基準にして重複領域の面積を正規化し
た値のうちの小さい方の値を重複度xとしている。この
ように、重複度xとして、顔候補領域の面積を基準にし
て重複領域の面積を正規化した値を用いることで、顔候
補領域の大きさに拘らず重複度を正確に数値化すること
ができる。
X = min (SAB/ SA, SAB/ SB) (1) In equation (1), min () selects the minimum value of the numerical value in parentheses.
Is an operator indicating that theAB/ SAIs the face candidate area
Area S of area AAArea S of the overlap region based on ABIs regular
Value, SAB/ SBIs the area S of the face candidate area BBBased on
And the area S of the overlap regionABIs a normalized value of
Equation (1) is a formula for each of the overlapping face candidate area pairs A and B.
Normalize the area of the overlapping area based on the size (area)
The smaller one of the values is set as the degree of overlap x. this
Thus, the degree of overlap x is based on the area of the face candidate area.
By using the normalized value of the area of the overlapping area
Accurately quantify the degree of overlap regardless of the size of the complement area
Can be.

【0060】なお、(1)式において、SAB/SA 、S
AB/SB により求まる値は重複度合いが大きくなるに従
って(面積SABの値が増大するに従って)値が大きくな
るので、(1)式では、双方の値のうち小さい方の値
(より小さい重複度を表す値)を重複度xとして用いて
いる。これにより、例えば一方の顔候補領域が他方の顔
候補領域に内包されている等の場合にも重複度xの値が
極端に大きくなることを防止することができる。
In the equation (1), S AB / S A , S
Since the value obtained by AB / S B increases as the degree of overlap increases (as the value of area S AB increases), in equation (1), the smaller of the two values (the smaller overlap) Is used as the degree of overlap x. Thus, for example, even when one face candidate area is included in the other face candidate area, it is possible to prevent the value of the degree of overlap x from becoming extremely large.

【0061】また重複度xは、顔候補領域Aの重心位置
と、顔候補領域Bの重心位置との距離をLABとしたとき
に、次の(2)式又は(3)式に従って演算してもよ
い。
The degree of overlap x is calculated in accordance with the following equation (2) or (3) when the distance between the center of gravity of the face candidate area A and the center of gravity of the face candidate area B is L AB. You may.

【0062】 x=max(LAB/√(SA ) ,LAB/√(SB )) …(2) x=max(LAB 2 /SA ,LAB 2 /SB ) …(3) (2)式及び(3)式において、max( )は括弧内の数値
の最大値を選択することを表す演算子であり、LAB/√
(SA ) 及びLAB 2 /SA は顔候補領域Aの面積SA
基準にして重心間距離LABを正規化した値、LAB/√
(SB )及びLAB 2 /SB は顔候補領域Bの面積SB
基準にして重心間距離LABを正規化した値であるので、
(2)式及び(3)式は、重複している顔候補領域対
A,Bの各々の大きさ(面積)を基準にして重心間距離
を正規化した値のうちの大きい方の値を重複度xとして
いる。このように、重複度xとして、顔候補領域の面積
を基準にして重心間距離を正規化した値を用いることに
よっても、顔候補領域の大きさに拘らず重複度を正確に
数値化することができる。
X = max (LAB/ √ (SA), LAB/ √ (SB))… (2) x = max (LAB Two/ SA, LAB Two/ SB) ... (3) In equations (2) and (3), max () is the value in parentheses
Is an operator indicating that the maximum value ofAB/ √
(SA) And LAB Two/ SAIs the area S of the face candidate area AATo
Distance L between center of gravityABIs the normalized value of LAB/ √
(SB) And LAB Two/ SBIs the area S of the face candidate area BBTo
Distance L between center of gravityABIs a normalized value of
Equations (2) and (3) are used to calculate overlapping face candidate area pairs.
Distance between centers of gravity based on the size (area) of each of A and B
The larger value of the normalized values of
I have. Thus, as the degree of overlap x, the area of the face candidate area
Using the normalized value of the distance between the centers of gravity based on
Therefore, regardless of the size of the face candidate area, the degree of overlap can be accurately calculated.
Can be quantified.

【0063】なお(2)式及び(3)式において、LAB
/√(SA ) ,LAB/√(SB )、或いはLAB 2
A ,LAB 2 /SB により求まる値は重複度合いが大き
くなるに従って(重心間距離LABの値が減少するに従っ
て)値が小さくなるので、(2)式及び(3)式では双
方の値のうち大きい方の値(より小さい重複度を表す
値)を重複度xとして用いている。これにより、例えば
一方の顔候補領域が他方の顔候補領域に内包されている
等の場合に重複度xの値が極端に小さくなることを防止
することができる。
In the equations (2) and (3), L AB
/ √ (S A ), L AB / √ (S B ), or L AB 2 /
The values obtained by S A and L AB 2 / S B decrease as the degree of overlap increases (as the value of the distance L AB between the centers of gravity decreases). The larger one of the values (a value representing a smaller degree of overlap) is used as the degree of overlap x. Thus, for example, when one face candidate area is included in the other face candidate area, it is possible to prevent the value of the degree of overlap x from becoming extremely small.

【0064】また(2)式及び(3)式は、請求項2に
記載の「候補領域の距離」として一対の顔候補領域の重
心間距離を適用した場合であるが、これに限定されるも
のではなく、「候補領域の距離」として一対の顔候補領
域の各々の位置を代表する代表点間の距離を適用し、こ
れを正規化した値を用いて重複度xを求めるようにして
もよい。この代表点としては、例えば顔候補領域に外接
又は内接する所定形状(例えばN角形状(N≧3)や円
形状(真円でも楕円でもよい))の図形の中心に相当する
点、或いは予め設定した特定の演算方法により求まる点
を採用することができる。
Equations (2) and (3) are for the case where the distance between the centers of gravity of a pair of face candidate areas is applied as the "distance of the candidate area" according to claim 2, but is not limited thereto. Instead, the distance between the representative points representing the positions of the pair of face candidate areas is applied as the “distance of the candidate area”, and the degree of overlap x may be obtained using a value obtained by normalizing the distance. Good. The representative point may be, for example, a point corresponding to the center of a figure of a predetermined shape (for example, an N-corner shape (N ≧ 3) or a circular shape (may be a perfect circle or an ellipse)) circumscribing or inscribing the face candidate area, or A point determined by a set specific calculation method can be adopted.

【0065】なお、予め設定した特定の演算方法により
求まる点としては、一例として、顔候補領域に外接する
N角形状領域(例えば矩形状領域)の特定の頂点、前記
N角形状領域の複数の頂点の重心に相当する点、顔候補
領域に外接する楕円状領域の長軸方向に沿った上側(顔
の上下方向の上側)の端部から、楕円状領域の長軸方向
に沿った長さのX%に相当する長さだけ隔てた位置に相
当する点等が挙げられる。
The points obtained by the specific calculation method set in advance include, for example, a specific vertex of an N-corner region (for example, a rectangular region) circumscribing the face candidate region, and a plurality of points of the N-corner region. A point corresponding to the center of gravity of the vertex, the length along the major axis direction of the elliptical region from the upper end (upper vertical direction of the face) along the major axis direction of the elliptical region circumscribing the face candidate region And a point corresponding to a position separated by a length corresponding to X%.

【0066】更に、重複度xは、顔候補領域Aの所定方
向(例えば画像の長辺方向や短辺方向)に沿った長さを
A 、顔候補領域Bの所定方向に沿った長さをLB 、重
複領域の所定方向に沿った長さをLAB’としたときに、
次の(4)式に従って演算してもよい。
Further, the degree of overlap x is L A , the length of the face candidate area A along a predetermined direction (for example, the long side direction or the short side direction of the image), and the length of the face candidate area B along the predetermined direction. Is L B , and the length of the overlapping region along a predetermined direction is L AB ′,
The calculation may be performed according to the following equation (4).

【0067】 x=min(LAB’/LA ,LAB’/LB ) …(4) このように、重複度xとして、顔候補領域の所定方向に
沿った長さを基準にして重複領域の所定方向に沿った長
さを正規化した値を用いることによっても、顔候補領域
の大きさに拘らず重複度を正確に数値化することができ
る。
[0067] x = min (L AB '/ L A, L AB' / L B) ... (4) Thus, as the degree of overlapping x, overlapping relative to the length along the predetermined direction of the face candidate region By using a value obtained by normalizing the length of the area along the predetermined direction, the degree of overlap can be accurately quantified regardless of the size of the face candidate area.

【0068】また、(1)式、(2)式(又は(3)
式)、及び(4)式のうちの2つ以上の式を用いて求め
た重複度xの平均値や加重平均値を最終的な重複度xと
してもよい。但し(2)式や(3)式により求まる重複
度xと、(1)式や(4)式により求まる重複度xと
は、重複度合いの変化に対する値の変化方向が異なって
いるので、平均値又は加重平均値の演算に際しては、値
の変化方向が揃うように一方の値を変換する必要があ
る。
The expressions (1) and (2) (or (3)
An average value or a weighted average value of the duplication degrees x obtained using two or more of the expressions (4) and (4) may be used as the final duplication degree x. However, since the degree of overlap x obtained by the equations (2) and (3) and the degree of overlap x obtained by the equations (1) and (4) are different in the direction in which the value changes with respect to the change in the degree of overlap, the average is obtained. When calculating a value or a weighted average value, it is necessary to convert one of the values so that the change direction of the value is uniform.

【0069】また、加重平均値の演算における、各演算
式によって求めた重複度に付与する重みについては、各
演算式により求めた重複度を用いて予め顔領域抽出を行
い、実際の顔領域との一致度を各演算式毎に評価して定
めることができる。例えば本願発明者は、(1)式と
(2)式(又は(3)式)については、(1)式により
求まる重複度を用いた方が実際の顔領域との一致度が高
いことが多いことを実験により確認しており、(1)式
により求まる重複度と(2)式(又は(3)式)により
求まる重複度の加重平均値を重複度xとする場合には、
(1)式により求まる重複度に付与する重みを(2)式
(又は(3)式)により求まる重複度に付与する重みよ
りも大きくすることが好ましい。
In addition, in the calculation of the weighted average value, with respect to the weight given to the degree of duplication obtained by each arithmetic expression, a face area is extracted in advance using the degree of duplication obtained by each arithmetic expression, and the actual face area is extracted. Can be evaluated and determined for each arithmetic expression. For example, the inventor of the present application has found that, for Expressions (1) and (2) (or Expression (3)), the degree of coincidence with the actual face area is higher when the degree of overlap determined by Expression (1) is used. It has been confirmed by experiments that there are many, and when the weighted average value of the degree of duplication obtained by equation (1) and the degree of duplication obtained by equation (2) (or equation (3)) is the degree of duplication x,
It is preferable that the weight given to the degree of duplication obtained by the equation (1) be larger than the weight given to the degree of duplication obtained by the equation (2) (or the equation (3)).

【0070】また、各演算式によって求めた重複度の加
重平均値を重複度xとすることに代えて、各演算式によ
って求めた重複度を重み点数P(詳細は後述)に変換
し、各演算式に対応する重み点数Pの加重平均値を最終
的な重み点数として設定するようにしてもよい。
Further, instead of using the weighted average value of the duplication degree obtained by each arithmetic expression as the duplication degree x, the duplication degree obtained by each arithmetic expression is converted into a weight score P (details will be described later). A weighted average value of the weight points P corresponding to the arithmetic expression may be set as the final weight points.

【0071】次のステップ110では、上記のようにし
て演算した重複度xに基づいて、ステップ106で取り
出した処理対象の顔候補領域対に付与する重み点数Pを
決定する。この重み点数Pの決定は、先のステップ10
8において、顔候補領域の重複度合いが大きくなるに従
って値が大きくなるように重複度xが演算された場合に
は、例として図4(B)に示すように、重複度xの値が
増加するに伴って重み点数Pが高くなるように変換特性
が定められたマップを用い、該マップを用いて重複度x
を重み点数Pに変換することで行うことができる。一
方、ステップ108において、顔候補領域の重複度合い
が大きくなるに従って値が小さくなるように重複度xが
演算された場合には、例として図4(C)に示すよう
に、重複度xの値が増加するに伴って重み点数Pが低く
なるように変換特性が定められたマップを用い、該マッ
プを用いて重複度xを重み点数Pに変換することで重み
点数Pを決定することができる。
In the next step 110, the number of weight points P to be assigned to the face candidate area pair to be processed extracted in step 106 is determined based on the degree of duplication x calculated as described above. The determination of the number of weight points P is based on the previous step 10
In FIG. 8, when the degree of overlap x is calculated such that the value increases as the degree of overlap of the face candidate areas increases, the value of the degree of overlap x increases as shown in FIG. 4B as an example. Is used, and a map in which the conversion characteristic is determined so that the number of weight points P becomes higher in accordance with
Is converted into the number of weight points P. On the other hand, in step 108, when the degree of overlap x is calculated so that the value decreases as the degree of overlap of the face candidate areas increases, as shown in FIG. The weighting point P can be determined by using a map in which the conversion characteristic is determined so that the weighting point P decreases as the value increases, and converting the degree of overlap x into the weighting point P using the map. .

【0072】なお、図4(B)及び(C)に示す変換特
性は単なる一例であり、例えば図4(B)及び(C)に
示す変換特性では重複度xの変化に対して重み点数Pが
変化しない不感領域が存在するが、このような不感領域
のない変換特性であってもよい。また、重複度xの変化
に対して重み点数Pが非線形に変化する変換特性を用い
てもよく、重複度合いが大きくなるに伴って重み点数P
が増加する変換特性であればよい。
The conversion characteristics shown in FIGS. 4B and 4C are merely examples. For example, in the conversion characteristics shown in FIGS. There is an insensitive area where does not change, but conversion characteristics without such an insensitive area may be used. Further, a conversion characteristic in which the number of weight points P changes non-linearly with respect to the change in the degree of overlap x may be used.
May be a conversion characteristic that increases.

【0073】上記のようにして重み点数Pを決定する
と、処理対象の顔候補領域対に対して先に決定した重み
点数Pを各々付与し(ステップ112)、次のステップ
114において、互いに重複している全ての顔候補領域
対に対してステップ106〜112の処理を行ったか否
か判定する。判定が否定された場合にはステップ106
に戻り、互いに重複している他の顔候補領域対に対して
ステップ106〜112の処理を繰り返す。これによ
り、互いに重複している全ての顔候補領域対に対し、重
み点数Pが各々付与されることになる。
When the number of weight points P is determined as described above, the number of weight points P determined previously is given to the face candidate area pair to be processed (step 112). It is determined whether or not the processing of steps 106 to 112 has been performed on all the face candidate area pairs that have been executed. If the determination is negative, step 106
And the processing of steps 106 to 112 is repeated for the other face candidate area pairs overlapping each other. As a result, the weight point number P is assigned to all the face candidate area pairs overlapping each other.

【0074】ステップ114の判定が肯定されるとステ
ップ116へ移行し、各顔候補領域に対して付与した重
み点数Pを各顔候補領域毎に積算し、各顔候補領域毎に
積算値を重み点数Pとして設定する。例えば処理対象の
画像から図3に示す顔候補領域A〜Dが抽出された場
合、顔候補領域Dについては他の顔候補領域と重複して
いないため重み点数Pが設定されず(重み点数PD
0)、顔候補領域A〜Cについては2個の顔候補領域と
各々重複しているため、各々2つの重み点数Pが積算さ
れて設定される。このうち、他の顔候補領域との重複度
合いが小さい顔候補領域Cは重み点数PC が最も小さく
なり、顔候補領域Cとの重複度合いが顔候補領域Aより
も大きい顔候補領域B(図3において実際の顔領域との
一致度が最も高い顔候補領域)の重み点数PB が最大と
なる。
If the determination in step 114 is affirmative, the process proceeds to step 116, in which the number of weight points P assigned to each face candidate area is integrated for each face candidate area, and the integrated value is weighted for each face candidate area. Set as the score P. For example, when the face candidate areas A to D shown in FIG. 3 are extracted from the image to be processed, the weight score P is not set for the face candidate area D because it does not overlap with other face candidate areas (the weight score P D =
0) Since the face candidate areas A to C overlap with the two face candidate areas, respectively, two weight points P are added and set. Among them, face candidate region C overlapping degree is small with other face candidate region is weighted score P C is the smallest, a large face candidate region B (Fig than overlapping degree face candidate region A of the face candidate region C the actual degree of coincidence between the face region is weighted number P B of the highest face candidate region) it becomes a maximum at 3.

【0075】上記のステップ116で各顔候補領域に対
して設定される重み点数Pは、人物の顔に相当する領域
としての確度の評価を表す評価値に対応しており、他の
顔候補領域と重複している顔候補領域に対する重み点数
Pは、他の顔候補領域と重複していない顔候補領域に対
する重み点数よりも高い値になると共に、他の顔候補領
域との重複度合いが高くなるに従って更に高い値にな
る。なお、ステップ116はステップ110、112と
共に請求項9に記載の評価手段に対応している。
The number of weight points P set for each face candidate area in step 116 corresponds to an evaluation value representing the evaluation of the accuracy as an area corresponding to a person's face. And the weight score P for the face candidate area overlapping with the face candidate area becomes higher than the weight score for the face candidate area not overlapping with the other face candidate area, and the degree of overlap with the other face candidate area increases. And the value becomes even higher. Step 116, together with steps 110 and 112, corresponds to the evaluation means of the present invention.

【0076】ところで、ステップ100で抽出された顔
候補領域の中に濃度が極端に高い又は極端に低い顔候補
領域が存在しており、該顔候補領域が実際には顔領域で
はなかった場合、該顔候補領域の濃度が、顔領域の抽出
を行った後に行われる後処理の処理結果に悪影響を及ぼ
す可能性が高い。このため次のステップ118では、ス
テップ100で抽出された顔候補領域の中に、領域中の
濃度Mが極端に高い又は極端に低い顔候補領域が有るか
否か判定する。
By the way, if there is a face candidate area with extremely high or extremely low density in the face candidate area extracted in step 100, and the face candidate area is not actually a face area, There is a high possibility that the density of the face candidate area adversely affects the processing result of the post-processing performed after the face area is extracted. Therefore, in the next step 118, it is determined whether or not there is a face candidate area in which the density M in the area is extremely high or extremely low in the face candidate area extracted in step 100.

【0077】なお濃度Mは、領域内平均濃度(絶対値)
であってもよいし、処理対象の画像の全画面平均濃度に
対する相対濃度であってもよく、上記判定は、濃度M
を、濃度Mが極端に高い値か否かを判定するための閾値
THHIGH、及び濃度Mが極端に低い値か否かを判定するた
めの閾値THLOWと各々比較することで行うことができ
る。なお、閾値THHIGHは請求項8に記載の第1の所定
値、閾値THLOWは請求項8に記載の第2の所定値に対応
している。
The density M is the average density (absolute value) in the area.
Or a relative density with respect to the entire screen average density of the image to be processed.
Is a threshold value for determining whether or not the density M is an extremely high value.
This can be performed by comparing TH HIGH with a threshold value TH LOW for determining whether the density M is an extremely low value. The threshold value TH HIGH corresponds to a first predetermined value described in claim 8, and the threshold value TH LOW corresponds to a second predetermined value described in claim 8.

【0078】全ての顔候補領域が濃度M<閾値THHIGH
つ濃度M>閾値THLOWであった場合には、濃度が極端に
高い又は極端に低い顔候補領域は存在しないと判断でき
るので、ステップ118の判定が否定されてステップ1
24へ移行する。一方、濃度M>閾値THHIGH又は濃度M
<閾値THLOW を満足する顔候補領域が存在していた場
合、該顔候補領域は濃度Mが極端に高い又は極端に低い
と判断できるので、ステップ118の判定が肯定されて
ステップ120へ移行し、濃度Mが極端に高い又は極端
に低いと判断した顔候補領域の重み点数Pが低下するよ
うに修正した後にステップ124へ移行する。
If all face candidate areas have density M <threshold TH HIGH and density M> threshold TH LOW , it can be determined that there is no face candidate area with extremely high or extremely low density. If the determination at step 118 is negative, step 1
Move to 24. On the other hand, density M> threshold TH HIGH or density M
<If there is a face candidate area that satisfies the threshold value TH LOW , the density of the face candidate area can be determined to be extremely high or extremely low. Therefore, the determination in step 118 is affirmed, and the process proceeds to step 120. After that, the correction is made so that the weight point number P of the face candidate area determined to have the density M is extremely high or extremely low is decreased, and then the process proceeds to step 124.

【0079】この重み点数Pの修正は、例えば図5
(A)に示すマップを用いて行うことができる。このマ
ップは、初期(当初の)重み点数を横軸に、修正後の重
み点数を縦軸にとった座標上で、原点を通りかつ傾きが
1よりも小さい直線によって表される変換特性を有して
いる。上記のようなマップを用いて重み点数Pを変換
(下方修正)することにより、濃度Mが極端に高い又は
極端に低い顔候補領域が実際には顔領域ではなかった場
合にも、該顔候補領域が後処理に及ぼす悪影響の程度を
小さくすることができる。なお、ステップ118及びス
テップ120は請求項8の発明に対応している。
The correction of the number of weight points P is performed, for example, by referring to FIG.
This can be performed using the map shown in FIG. This map has a conversion characteristic represented by a straight line that passes through the origin and has a slope smaller than 1 on coordinates with the initial (initial) weight points on the horizontal axis and the corrected weight points on the vertical axis. are doing. By converting (decreasing downward) the number of weight points P using the map as described above, even if a face candidate area whose density M is extremely high or extremely low is not actually a face area, the face candidate The extent of the adverse effect of the region on post-processing can be reduced. Steps 118 and 120 correspond to the eighth aspect of the present invention.

【0080】一方、ステップ100で抽出された顔候補
領域の中に、画像上で互いに重複している顔候補領域が
無い場合には、先のステップ104の判定が否定されて
ステップ122へ移行し、各顔候補領域の重み点数Pと
して一定値を設定してステップ124へ移行する。
On the other hand, if none of the face candidate areas extracted in step 100 overlap with each other on the image, the determination in step 104 is denied, and the routine proceeds to step 122. Then, a fixed value is set as the number of weight points P of each face candidate area, and the process proceeds to step 124.

【0081】ステップ124では、各顔候補領域の重み
点数Pを顔領域判定用の閾値THFと各々比較し、重み
点数Pが閾値THF 以上の顔候補領域を顔領域として抽
出(選択)する。ステップ104の判定が肯定された場
合(互いに重複している顔候補領域があった場合)に
は、他の顔候補領域と重複しておりかつ重複度合いの高
い顔候補領域に対する重み点数が高くされているので、
顔領域である確度が高い顔候補領域が顔領域として抽出
されることになる。なお、ステップ124は請求項3の
発明に対応している。
In step 124, the number of weight points P of each face candidate area is compared with a threshold value TH F for face area determination, and a face candidate area having a weight point number P equal to or greater than the threshold value TH F is extracted (selected) as a face area. . When the determination in step 104 is affirmative (when there are face candidate areas overlapping each other), the weight score for the face candidate area overlapping with another face candidate area and having a high degree of overlap is increased. So
A face candidate area having a high probability of being a face area is extracted as a face area. Step 124 corresponds to the third aspect of the present invention.

【0082】また次のステップ126では、次の(5)
式又は(6)式に従って処理対象の画像の顔領域濃度M
faceを演算し、顔領域抽出・濃度演算処理を終了する。
In the next step 126, the following (5)
The face area density M of the image to be processed according to the equation (6)
The face is calculated, and the face area extraction / density calculation processing ends.

【0083】[0083]

【数1】 (Equation 1)

【0084】但し、iは各顔候補領域を識別するための
符号、Nは顔候補領域の総数、Miは顔候補領域iの濃
度、Pi は顔候補領域iの重み点数、Si は顔候補
領域iの面積である。
Here, i is a code for identifying each face candidate area, N is the total number of face candidate areas, Mi is the density of the face candidate area i, Pi is the number of weights of the face candidate area i, and Si is the face candidate area. i is the area.

【0085】(5)式及び(6)式より明らかなよう
に、顔領域濃度Mfaceは各顔候補領域の濃度Mの加重平
均値であり、(5)式では各顔候補領域の重み点数Pに
基づいて各顔候補領域を重み付けしており、(6)式で
は重み点数P及び面積Sに基づいて各顔候補領域を重み
付けしている。ステップ104の判定が肯定された場合
(互いに重複している顔候補領域があった場合)には、
他の顔候補領域と重複しておりかつ重複度合いの高い顔
候補領域に対する重み点数が高くされているので、顔領
域濃度Mfaceは各顔候補領域の濃度Mの平均値よりも、
実際の顔領域の濃度に近い値となる。
As is clear from the equations (5) and (6), the face area density Mface is a weighted average value of the density M of each face candidate area. Each face candidate area is weighted on the basis of the weighting points P and the area S in Equation (6). If the determination in step 104 is affirmative (if there are overlapping face candidate areas),
Since the weight points for the face candidate areas that overlap with other face candidate areas and have a high degree of overlap are increased, the face area density Mface is larger than the average value of the density M of each face candidate area.
The value is close to the density of the actual face area.

【0086】ところで、面積が比較的小さい顔候補領域
は顔領域である確率が比較的低いことが経験的に知られ
ているが、前出の(5)式では各顔候補領域の面積を考
慮せずに顔領域濃度Mfaceを演算しているので、顔領域
濃度Mfaceの演算対象の顔候補領域の中に、面積が比較
的小さく実際には顔領域ではない顔候補領域が含まれて
いた場合に、該顔候補領域の濃度Mが顔領域濃度Mface
に及ぼす影響が大きい。このため(5)式を用いて顔領
域濃度Mfaceを演算する場合((6)式を用いる場合でも
よい)、例えば面積Sが所定値以下、或いは他の顔候補
領域と比較して面積Sが相対的に小さい顔候補領域につ
いては、顔領域濃度Mfaceの演算対象から除外するか、
重み点数Pの値を小さくして顔領域濃度Mfaceを演算す
るようにしてもよい。これにより、面積が比較的小さく
実際には顔領域ではない顔候補領域の濃度Mが顔領域濃
度Mfaceに及ぼす影響を軽減することができる。
By the way, it is empirically known that a face candidate area having a relatively small area has a relatively low probability of being a face area. However, in the above equation (5), the area of each face candidate area is considered. Since the face area density Mface is calculated without performing the calculation, a face candidate area having a relatively small area and not actually a face area is included in the face candidate area for which the face area density Mface is calculated. In addition, the density M of the face candidate area is the face area density Mface
Has a large effect on For this reason, when calculating the face area density Mface using the equation (5) (the equation (6) may be used), for example, the area S is equal to or smaller than a predetermined value, or the area S is smaller than another face candidate area. A relatively small face candidate area is excluded from the calculation of the face area density Mface, or
The face area density Mface may be calculated by reducing the value of the weight point number P. As a result, it is possible to reduce the influence of the density M of the face candidate area having a relatively small area that is not actually a face area on the face area density Mface.

【0087】また、前出の(6)式では面積Sが大きい
顔候補領域の重みが相対的に大きくなるように顔領域濃
度Mfaceを演算しているので、顔領域濃度Mfaceの演算
対象の顔候補領域の中に、面積が比較的大きく実際には
顔領域ではない顔候補領域が含まれていた場合に、該顔
候補領域の濃度Mが顔領域濃度Mfaceに及ぼす影響が大
きい。このため(6)式を用いて顔領域濃度Mfaceを演
算する場合、例えば面積Sの値に対して上限値Smax
設定し、面積Sの値が上限値Smaxよりも大きい顔候補
領域については、面積Sの値を上限値Smaxに置き換え
る(クリッピングする)か、或いは重み点数Pの値を小
さくするようにしてもよい。これにより、面積が比較的
大きく実際には顔領域ではない顔候補領域の濃度Mが顔
領域濃度Mfaceに及ぼす影響を軽減することができる。
なお、上記のように面積Sの値が上限値Smaxよりも大
きい顔候補領域の重み点数Pの値を小さくすることは
(5)式を用いて顔領域濃度Mfaceを演算する場合にも
適用可能である。
Further, in the above equation (6), since the face area density Mface is calculated so that the weight of the face candidate area having a large area S becomes relatively large, the face to be calculated of the face area density Mface is calculated. If the candidate area includes a face candidate area having a relatively large area and not actually a face area, the density M of the face candidate area has a large effect on the face area density Mface. Therefore, when calculating the face area density Mface using the equation (6), for example, an upper limit value Smax is set for the value of the area S, and for a face candidate area in which the value of the area S is larger than the upper limit value Smax. May replace (clipping) the value of the area S with the upper limit value Smax or reduce the value of the number of weight points P. As a result, it is possible to reduce the influence of the density M of the face candidate area having a relatively large area that is not actually a face area on the face area density Mface.
It should be noted that decreasing the value of the weight score P of the face candidate region in which the value of the area S is larger than the upper limit value Smax as described above is also applied to the case where the face region density Mface is calculated using the equation (5). It is possible.

【0088】なお、ステップ126は請求項4の発明に
対応している。また、顔領域濃度Mfaceは請求項4に記
載の主要部の画像特徴量に対応しているが、主要部の画
像特徴量は濃度に限定されるものでなく、公知の種々の
画像特徴量を適用可能であることは言うまでもない。
Step 126 corresponds to the fourth aspect of the present invention. Further, the face area density Mface corresponds to the image feature amount of the main part according to claim 4. However, the image feature amount of the main part is not limited to the density, and various known image feature amounts may be used. It goes without saying that it is applicable.

【0089】上記の顔領域抽出・濃度演算処理を行う
と、オートセットアップエンジン44は、更に、イメー
ジプロセッサ40で実行される各種の画像処理の処理条
件を演算するが、顔領域抽出・濃度演算処理の処理結果
は一部の画像処理の処理条件の演算に利用される。例え
ば先のステップ124で抽出された顔領域は、イメージ
プロセッサ40で実行される顔領域又はその一部のみを
対象とした画像処理(例えば顔領域に対するシャープネ
ス補正や赤目補正等)の演算に利用され、前記画像処理
が顔領域のみを対象として行われるように処理条件が設
定される。また、先のステップ126で演算された顔領
域濃度Mfaceは、例えばイメージプロセッサ40で実行
される画像全体を対象とした画像処理(例えば色・濃度
補正等)に利用され、例えば顔領域濃度Mfaceが所定濃
度になるように濃度補正条件等の処理条件が演算され
る。
When the above-described face area extraction / density calculation processing is performed, the auto setup engine 44 further calculates the processing conditions of various image processing executed by the image processor 40. Is used for calculating the processing conditions of some image processing. For example, the face area extracted in the previous step 124 is used for image processing (for example, sharpness correction or red-eye correction for the face area) performed on the face area or only a part thereof by the image processor 40. Processing conditions are set so that the image processing is performed only on the face area. The face area density Mface calculated in step 126 is used, for example, for image processing (for example, color / density correction) for the entire image executed by the image processor 40. Processing conditions such as a density correction condition are calculated so as to obtain a predetermined density.

【0090】先にも説明したように、顔領域の抽出及び
顔領域濃度Mfaceは重複度xに基づいて設定した重み点
数を用いて行っているので、顔候補領域抽出処理によっ
て抽出された顔候補領域の中に、実際には顔領域でない
顔候補領域が誤抽出により混在していたとしても、実際
には顔領域でない顔候補領域が顔領域として抽出される
確率が大幅に低減されると共に、実際には顔領域でない
顔候補領域の濃度によって顔領域濃度が大幅に変化する
ことも防止することができる。従って、顔領域の抽出結
果又は顔領域濃度Mfaceを利用して処理条件が演算され
る各画像処理に対しても適正な処理条件が得られ、ファ
インスキャン画像データを対象としてイメージプロセッ
サ40で実行される各画像処理についても適正な処理結
果が得られる。
As described above, since the extraction of the face area and the face area density Mface are performed using the number of weight points set based on the degree of overlap x, the face candidate extracted by the face candidate area extraction processing is used. Even if a face candidate area that is not actually a face area is mixed in the area due to erroneous extraction, the probability that a face candidate area that is not actually a face area is extracted as a face area is greatly reduced, In practice, it is possible to prevent the face area density from largely changing depending on the density of the face candidate area that is not a face area. Therefore, appropriate processing conditions are obtained for each image processing in which the processing conditions are calculated using the face area extraction result or the face area density Mface, and the image processing is executed by the image processor 40 for the fine scan image data. Also, an appropriate processing result can be obtained for each image processing.

【0091】なお、上記では濃度が極端に高い又は極端
に低い顔候補領域に対し、重み点数が低下するように修
正していたが、これに限定されるものではなく、顔候補
領域から顔領域を抽出する処理を行う場合には、該顔領
域の抽出において、濃度が極端に高い又は極端に低い顔
候補領域に対してのみ、或いは全ての顔候補領域に対し
て、例として図5(B)に示すように顔領域判定用の閾
値THF が高くなるように閾値THF を変更してもよ
い。これは、請求項8に記載の「選択の基準を高くす
る」ことに対応している。これにより、濃度が極端に高
い又は極端に低い顔候補領域が顔領域として抽出されに
くくすることができる。なお閾値THF の変更量は一定
値としてもよいし、濃度が極端に高い又は極端に低いと
判断した顔候補領域の濃度Mと、濃度Mが極端に高い又
は極端に低いか否かを判定するための閾値THHIGH,TH
LOW と、の差に応じて閾値THF の変更量を変化させて
もよい。また上記に代えて、演算した重複度xを重み点
数Pに変換する際に、処理対象の顔候補領域対のうちの
少なくとも一方の顔候補領域の濃度Mが極端に高い又は
低い場合には、前記処理対象の顔候補領域対に付与する
重み点数Pを抑制するようにしてもよい。
In the above description, the correction is performed so that the weight score is reduced for a face candidate region having an extremely high or extremely low density. However, the present invention is not limited to this. In the extraction of the face region, only the face candidate regions having extremely high or extremely low density, or all the face candidate regions are extracted as shown in FIG. ) the threshold value may be changed TH F such that the threshold TH F for determining the face region becomes higher as shown in FIG. This corresponds to "increase the selection criterion" described in claim 8. This makes it difficult to extract a face candidate region having an extremely high or extremely low density as a face region. Incidentally determination change amount of the threshold TH F is may be a constant value, and the density M of concentration is extremely high or extremely low and determines the face candidate region, whether the extremely high or extremely low concentration M Thresholds TH HIGH , TH
LOW and the difference may vary the amount of change threshold TH F in accordance with the. Alternatively, instead of the above, when converting the calculated degree of overlap x into the number of weight points P, if the density M of at least one face candidate area of the face candidate area pair to be processed is extremely high or low, The number of weight points P to be given to the face candidate area pair to be processed may be suppressed.

【0092】また、各顔候補領域に設定する重み点数
P、顔領域判定用の閾値THF 、或いは顔領域濃度Mfa
ceにおいて各顔候補領域の濃度Mに付与する重みは、顔
領域抽出・濃度演算処理の処理結果を利用して行われる
画像処理の種類に応じて変更するようにしてもよい。な
お、以下で説明する処理は請求項5の発明に対応してい
る。
Further, the number of weight points P set for each face candidate area, the threshold value TH F for face area determination, or the face area density Mfa
In ce, the weight given to the density M of each face candidate area may be changed according to the type of image processing performed using the processing result of the face area extraction / density calculation processing. The processing described below corresponds to the fifth aspect of the present invention.

【0093】例えば顔領域抽出・濃度演算処理による顔
領域の抽出結果を利用して、イメージプロセッサ40に
おいて、抽出された顔領域に対してのみ局所的にエッジ
強調フィルタをかけて顔領域のシャープネスを強調する
シャープネス強調処理が行われる場合、シャープネス強
調の程度やフィルタの種類にも依存するが、実際には顔
領域でない領域にもシャープネスの強調が行われたとし
ても視覚上は悪影響が小さい(目立たない)ことがあ
る。このような場合には、顔領域判定用の閾値THF
値を通常よりも小さくし(すなわち顔候補領域の選択の
基準を変更し)、より多くの顔候補領域が顔領域と判定
されるようにしてもよい。顔領域判定用の閾値THF
値を低くするに従って、実際の顔領域に対応する顔候補
領域が顔領域でないと誤判定される確率が低くなるの
で、上記により、画像中の顔領域に対して漏れなくシャ
ープネス強調処理を施すことができる。
For example, using the face area extraction result obtained by the face area extraction / density calculation processing, the image processor 40 locally applies an edge emphasis filter only to the extracted face area to reduce the sharpness of the face area. When the sharpness enhancement process for enhancing is performed, it depends on the degree of the sharpness enhancement and the type of filter. However, even if the sharpness enhancement is actually performed on a region other than the face region, the adverse effect on the visual is small (conspicuous). Not). In such a case, smaller than the normal value of the threshold TH F for determination face region (i.e. to change the criteria for selection of a face candidate region), it is determined that more face candidate region is a face region You may do so. According to lower the value of the threshold TH F for determining the face region, the probability that a face candidate region corresponding to the actual face region is erroneously determined not to be a face region is lowered, the above, with respect to the face region in the image And sharpness enhancement processing can be performed without omission.

【0094】また、顔領域判定用の閾値THF の値を変
更することに代えて、演算により求めた重複度xに対
し、重み点数Pとして通常よりも大きな値を設定する
(すなわち各顔候補領域に対する評価の基準を変更す
る)ことで、より多くの顔候補領域が顔領域と判定され
るようにすることも可能である。特にシャープネス強調
処理として、重み点数Pが大きくなるに従ってシャープ
ネスの強調度合いを強くする処理が行われる場合には、
重み点数Pを上記のように設定することでシャープネス
の強調度合いを強めにコントロールすることも可能とな
る。
[0094] Further, instead of changing the value of the threshold TH F for determining the face region, to the degree of overlapping x determined by calculation typically set to a value greater than the weight score P (that is, each face candidate By changing the evaluation criteria for the areas), more face candidate areas can be determined to be face areas. In particular, in the case where the sharpness enhancement processing is performed as the sharpness enhancement processing as the number of weight points P increases,
By setting the number of weight points P as described above, the degree of sharpness enhancement can be controlled to a relatively high level.

【0095】また例えば、顔領域抽出・濃度演算処理に
よる顔領域の抽出結果及び顔領域濃度Mfaceを利用し
て、抽出された顔領域に対してのみ顔領域濃度Mfaceに
基づき局所的に濃度を補正する濃度補正処理が行われる
場合、濃度補正の程度にも依存するが、実際には顔領域
でない領域にも濃度補正が行われたとしても視覚上は悪
影響が小さい(目立たない)ことがある。このような場
合には、顔領域判定用の閾値THF の値を通常よりも小
さくし、より多くの顔候補領域が顔領域と判定されるよ
うにしてもよい。顔領域判定用の閾値THF の値を低く
するに従って、実際の顔領域に対応する顔候補領域が顔
領域でないと誤判定される確率が低くなるので、上記に
より、画像中の顔領域に対して漏れなく濃度補正処理を
施すことができる。
For example, using the face area extraction result and the face area density Mface by the face area extraction / density calculation processing, the density is locally corrected only for the extracted face area based on the face area density Mface. When the density correction processing is performed, although it depends on the degree of the density correction, even if the density correction is actually performed on an area other than the face area, there is a case that the visual effect is small (not noticeable). In such a case, the value of the threshold TH F for determining a face area smaller than usual, the more face candidate regions may be is determined as the face region. According to lower the value of the threshold TH F for determining the face region, the probability that a face candidate region corresponding to the actual face region is erroneously determined not to be a face region is lowered, the above, with respect to the face region in the image The density correction process can be performed without omission.

【0096】また、顔領域判定用の閾値THF の値を変
更することに代えて、演算により求めた重複度xに対
し、重み点数Pとして通常よりも大きな値を設定するこ
とで、より多くの顔候補領域が顔領域と判定されるよう
にすることも可能である。特に濃度補正処理として、重
み点数Pが大きくなるに従って濃度の補正度合いを強く
する処理が行われる場合には、重み点数Pを上記のよう
に設定することで濃度の補正度合いを強めにコントロー
ルすることも可能となる。
Also, instead of changing the value of the threshold value TH F for face area determination, a larger value than usual is set as the number of weight points P with respect to the degree of overlap x obtained by calculation, so that more values can be obtained. May be determined as a face area. In particular, in the case where processing for increasing the degree of density correction as the number of weight points P increases is performed as the density correction processing, the degree of correction of the density is controlled to be higher by setting the number of weight points P as described above. Is also possible.

【0097】上記の説明は、顔領域の抽出において、実
際には顔領域でない領域を誤って顔領域として抽出した
場合にも影響が小さい画像処理が行われる場合である
が、逆に実際には顔領域でない領域を誤って顔領域とし
て抽出した場合に多大な影響を受ける画像処理が行われ
る場合には、例えば顔領域判定用の閾値THF の値を通
常よりも大きくしたり、重複度xに対し重み点数Pとし
て通常よりも小さな値を設定することで、顔領域として
の確度がより高い顔候補領域のみが顔領域として抽出さ
れるようにすることも可能である。
The above description is of a case where, in the extraction of a face area, image processing is performed which has a small effect even when an area which is not actually a face area is erroneously extracted as a face area. when the image processing for receiving a tremendous impact when extracted as a face region by mistake regions not a face area is performed, or greater than normal value of the threshold TH F for determination example the face area, the degree of overlapping x By setting a smaller value than usual as the weight point number P, it is also possible to extract only a face candidate area having a higher degree of accuracy as a face area as a face area.

【0098】また、顔領域濃度についても、例えば次の
(7)式に示すように、先の(5)式((6)式でもよ
い)で求まる顔領域濃度Mfaceと、他の画像特徴量D
(例えば画像全体の平均濃度、非顔候補領域の平均濃度
等)との加重平均値Mface’(但し、αF は顔領域濃度
Mfaceに対する重み係数、α0 は画像特徴量Dに対する
重み係数)を顔領域濃度として演算する場合、演算した
顔領域濃度を利用して行われる画像処理の種類に応じて
重み係数αF ,α0 の値を変更する(すなわち各顔候補
領域に対する重み付けの基準を相対的に変更する)こと
で、各顔候補領域の濃度Mに付与する重みを変更するよ
うにしてもよい。
As for the face area density, for example, as shown in the following equation (7), the face area density Mface obtained by the above equation (5) (or the equation (6)) and another image feature quantity D
(E.g. average density of the entire image, the average concentration of the non-face candidate region) Weighted average Mface the '(however, alpha F is a weighting factor for the face area density Mface, alpha 0 is a weighting factor for the image feature amount D) a When calculating as the face area density, the values of the weighting factors α F and α 0 are changed according to the type of image processing performed using the calculated face area density (that is, the weighting criterion for each face candidate area is relatively Weight), the weight given to the density M of each face candidate area may be changed.

【0099】 Mface’=αF ・Mface+α0 ・D …(7) また、顔領域抽出・濃度演算処理の処理結果を利用して
行われる画像処理として、顔領域抽出・濃度演算処理の
処理結果に対する要求が異なる複数種の画像処理(例え
ば、抽出された顔領域の中に実際には顔領域でない領域
が混在していないことが望ましい画像処理と、抽出され
た顔領域の中に画像中の全ての顔領域が含まれているこ
とが望ましい画像処理等)が各々行われる場合には、そ
れぞれの画像処理に対応して顔領域の抽出や顔領域濃度
の演算を複数回行ってもよい。本実施形態では、重複度
xを各顔候補領域の顔領域としての信頼度(確度)とし
て用いることができ、上述したように、各顔候補領域に
対する重み点数設定の基準、顔領域判定の基準(閾値T
F )、各顔候補領域に対する重み付けの基準の少なく
とも1つを変更することで、顔領域抽出結果や顔領域濃
度演算結果としてそれぞれの画像処理が要求する結果を
各々得ることができるので、前記複数種の画像処理が各
々行われる場合にも、非常に複雑かつ時間がかかる顔候
補領域抽出処理を、前記複数種の画像処理に対応して処
理条件を変更しながら画像処理の種類数と同数回繰り返
す必要はなく、顔領域抽出・濃度演算処理の処理時間を
短縮することができ、画像処理装置14の性能向上を実
現できる。
Mface ′ = α F · Mface + α 0 · D (7) As image processing performed using the processing result of the face area extraction / density calculation processing, the processing result of the face area extraction / density calculation processing is used. A plurality of types of image processing with different requests (for example, image processing in which it is desirable that an area that is not a face area actually exists in the extracted face area, (Such as image processing in which it is desirable to include the face area), the extraction of the face area and the calculation of the face area density may be performed a plurality of times corresponding to each image processing. In the present embodiment, the degree of overlap x can be used as the reliability (probability) of each face candidate area as a face area. As described above, the criterion for setting the number of weight points for each face candidate area and the criterion for face area determination (Threshold T
H F ), by changing at least one of the weighting criteria for each face candidate area, a result required by each image processing can be obtained as a face area extraction result or a face area density calculation result. Even when a plurality of types of image processing are performed, a very complicated and time-consuming face candidate region extraction process is performed in the same number as the number of types of image processing while changing processing conditions corresponding to the plurality of types of image processing. It is not necessary to repeat the processing, and the processing time of the face area extraction / density calculation processing can be reduced, and the performance of the image processing apparatus 14 can be improved.

【0100】また、上記ではプレスキャン画像データに
基づきオートセットアップエンジン44によって顔領域
抽出・濃度演算処理を含む処理条件の演算を行い、ファ
インスキャン画像データに対する実際の画像処理はイメ
ージプロセッサ40で行う場合を説明したが、これに限
定されるものでなく、単一の画像データに対して処理条
件の演算、演算した処理条件での画像処理を順に行うよ
うにしてもよく、これらの一連の処理を単一の処理部で
行うようにしてもよい。
In the above case, the processing conditions including the face area extraction and density calculation processing are calculated by the auto setup engine 44 based on the prescanned image data, and the actual image processing for the fine scan image data is performed by the image processor 40. However, the present invention is not limited to this, and it is also possible to sequentially perform the calculation of the processing conditions and the image processing under the calculated processing conditions on a single image data. The processing may be performed by a single processing unit.

【0101】更に、上記では各顔候補領域に対して設定
した重み点数に基づき、顔領域の抽出及び顔領域濃度の
演算を各々行っていたが、これに限定されるものではな
く、何れか一方のみを行うようにしてもよい。
Further, in the above description, the extraction of the face area and the calculation of the face area density are respectively performed based on the number of weight points set for each face candidate area. However, the present invention is not limited to this. Only the operation may be performed.

【0102】また、上記では写真フィルムに記録された
画像を読み取ることで得られた画像データを処理対象と
していたが、これに限定されるものではなく、紙等の他
の記録材料に記録された画像を読み取ることで得られた
画像データや、デジタルカメラによる撮像によって得ら
れた画像データ、或いはコンピュータによって生成され
た画像データを処理対象としてもよい。また、本発明は
写真フィルムに記録されたフィルム画像を面露光により
印画紙に露光記録する際の露光条件の決定に利用しても
よいことは言うまでもない。
In the above description, the image data obtained by reading the image recorded on the photographic film has been processed. However, the present invention is not limited to this, and is not limited to this. Image data obtained by reading an image, image data obtained by imaging with a digital camera, or image data generated by a computer may be processed. In addition, it goes without saying that the present invention may be used for determining exposure conditions when a film image recorded on a photographic film is exposed and recorded on photographic paper by surface exposure.

【0103】また、上記では画像中の人物の顔に相当す
る領域を主要部とした場合を説明したが、これに限定さ
れるものではない。一例として、部品や製品等の大量生
産において、生産された部品や製品等が順に搬送されて
いる状況を撮像すると共に、前記搬送されている状況を
表す画像を撮像信号から所定のタイミングで抽出し、抽
出した画像から、主要部に相当する領域として前記部品
や製品等に対応する領域を抽出する等の場合に本発明を
適用することも可能である。この場合、抽出した主要部
領域は、例えば生産した部品や製品等を自動的に検査す
る等に利用することができる。
In the above description, the case where the area corresponding to the face of the person in the image is the main part has been described, but the present invention is not limited to this. As an example, in mass production of parts, products, and the like, while imaging the situation in which the produced parts, products, and the like are being sequentially conveyed, an image representing the state of being conveyed is extracted at a predetermined timing from the imaging signal. The present invention can also be applied to a case where, for example, an area corresponding to the component or the product is extracted from the extracted image as an area corresponding to the main part. In this case, the extracted main part region can be used, for example, for automatically inspecting the produced parts and products.

【0104】[0104]

【発明の効果】以上説明したように請求項1及び請求項
9記載の発明は、画像データが表す画像中の主要部に相
当すると推定される候補領域を複数抽出し、画像上で他
の候補領域と重複している候補領域について重複度を求
め、他の候補領域と重複している候補領域に対する主要
部に相当する領域としての確度の評価が、他の候補領域
と重複していない候補領域に対する前記評価よりも高く
なり、かつ他の候補領域との重複度が高くなるに従って
更に高くなるように、各候補領域に対して主要部に相当
する領域としての確度を評価するので、画像中の主要部
に相当すると推定される領域の誤抽出による影響を低減
することができる、という優れた効果を有する。
As described above, according to the first and ninth aspects of the present invention, a plurality of candidate regions which are presumed to correspond to a main part in an image represented by image data are extracted, and other candidate regions are extracted from the image. The degree of overlap is obtained for the candidate area overlapping with the area, and the evaluation of the accuracy as an area corresponding to the main part of the candidate area overlapping with another candidate area is determined as a candidate area not overlapping with another candidate area. For each candidate area, the accuracy as an area corresponding to a main part is evaluated so that the evaluation is higher than the above evaluation and the degree of overlap with another candidate area is higher. This has an excellent effect that the influence of the erroneous extraction of the region estimated to correspond to the main part can be reduced.

【0105】請求項2記載の発明は、請求項1の発明に
おいて、重複度として、重複している一対の候補領域の
各々の大きさを基準にして一対の候補領域の距離を正規
化した値、一対の候補領域の各々の大きさを基準にして
重複している領域の面積を正規化した値、及び一対の候
補領域の各々の所定方向に沿った大きさを基準にして重
複している領域の所定方向に沿った大きさを正規化した
値の少なくとも1つを用いるようにしたので、上記効果
に加え、候補領域の大きさに拘らず候補領域の重複度を
正確に数値化できる、という効果を有する。
According to a second aspect of the present invention, in the first aspect of the present invention, the value obtained by normalizing the distance between the pair of candidate regions based on the size of each of the pair of overlapping candidate regions is used as the degree of overlap. A value obtained by normalizing the area of the overlapping region based on the size of each of the pair of candidate regions, and the size based on the size of each of the pair of candidate regions along the predetermined direction. Since at least one of the values obtained by normalizing the size of the region along the predetermined direction is used, in addition to the above-described effects, the degree of overlap of the candidate region can be accurately quantified regardless of the size of the candidate region. It has the effect of.

【0106】請求項3記載の発明は、請求項1の発明に
おいて、各候補領域に対して主要部に相当する領域とし
ての確度を評価した結果を表す評価値を閾値と比較する
ことで、各候補領域から主要部に相当する領域としての
確度の高い候補領域を選択するので、上記効果に加え、
主要部に相当する領域としての確度の高い候補領域を、
簡易な処理によって精度良く選択できる、という効果を
有する。
According to a third aspect of the present invention, in the first aspect of the present invention, each candidate area is compared with an evaluation value representing a result of evaluating the accuracy as an area corresponding to a main part with a threshold value. Since a candidate region having high accuracy as a region corresponding to the main part is selected from the candidate regions, in addition to the above effects,
Candidate areas with high accuracy as areas corresponding to the main part,
This has the effect that selection can be made accurately with simple processing.

【0107】請求項4記載の発明は、請求項1の発明に
おいて、各候補領域又は各候補領域から選択した候補領
域を、主要部に相当する領域としての確度を評価した結
果を表す評価値に従って重み付けし、主要部の画像特徴
量として、各候補領域又は前記選択した候補領域の画像
特徴量の加重平均を演算するので、上記効果に加え、主
要部の画像特徴量を簡単な処理により精度良く求めるこ
とができる、という効果を有する。
According to a fourth aspect of the present invention, in the first aspect of the present invention, each candidate area or a candidate area selected from each candidate area is evaluated in accordance with an evaluation value representing a result of evaluating the accuracy as an area corresponding to a main part. Weighting is performed, and a weighted average of the image feature amounts of the respective candidate regions or the selected candidate regions is calculated as the image feature amount of the main part. This has the effect that it can be determined.

【0108】請求項5記載の発明は、請求項1の発明に
おいて、各候補領域に対して主要部に相当する領域とし
ての確度を評価した後に所定の画像処理を行う場合に、
所定の画像処理の種類に応じて、主要部に相当する領域
としての確度の評価の基準を変更するか、又は主要部に
相当する領域としての確度の高い候補領域の選択又は各
候補領域の重み付けの基準を変更するので、上記効果に
加え、所定の画像処理の種類に拘らず常に適正な処理結
果を得ることができる、という効果を有する。
According to a fifth aspect of the present invention, in the first aspect, when predetermined image processing is performed after evaluating the accuracy of each candidate area as an area corresponding to a main part,
Depending on the type of predetermined image processing, change the criterion of the evaluation of the accuracy as a region corresponding to the main part, or select a candidate region with high probability as the region corresponding to the main part, or weight each candidate region Is changed, so that in addition to the above effects, there is an effect that an appropriate processing result can always be obtained regardless of the type of predetermined image processing.

【0109】請求項6記載の発明は、請求項5の発明に
おいて、所定の画像処理が、候補領域の誤抽出や候補領
域の誤評価があると処理結果が多大な影響を受ける画像
処理である場合に、主要部に相当する領域としての確度
の評価の基準が厳しくなるように前記評価の基準を変更
するか、前記確度がより高いと評価された候補領域のみ
が選択されるように前記選択の基準を変更するか、前記
確度が低いと評価された候補領域に対する重みが相対的
に小さくなるように重み付けの基準を変更するので、上
記効果に加え、候補領域の誤抽出や候補領域の誤評価が
あったとしても、所定の処理の処理結果が多大な影響を
受けることを回避することができる、という効果を有す
る。
According to a sixth aspect of the present invention, in the fifth aspect of the present invention, the predetermined image processing is an image processing in which the processing result is greatly affected by erroneous extraction of a candidate area or erroneous evaluation of a candidate area. In such a case, the evaluation criterion is changed so that the criterion of accuracy evaluation as a region corresponding to the main part is strict, or the selection is performed such that only candidate regions evaluated as having higher accuracy are selected. Or the weighting criterion is changed so that the weight for the candidate area evaluated as having low accuracy is relatively small. In addition to the above-described effects, erroneous extraction of the candidate area and erroneous selection of the candidate area are performed. Even if the evaluation is made, it is possible to prevent the processing result of the predetermined processing from being greatly affected.

【0110】請求項7記載の発明は、請求項5の発明に
おいて、所定の画像処理が、候補領域の誤抽出や候補領
域の誤評価があっても処理結果が受ける影響の小さい画
像処理である場合に、主要部に相当する領域としての確
度の評価の基準が緩くなるように前記評価の基準を変更
するか、前記確度が低いと評価された候補領域も選択さ
れるように前記選択の基準を変更するか、前記確度が低
いと評価された候補領域に対する重みが相対的に大きく
なるように重み付けの基準を変更するので、上記効果に
加え、候補領域の誤抽出や候補領域の誤評価があった場
合に後処理の処理結果が受ける影響が小さくて済み、適
正な処理結果が得られる、という効果を有する。
According to a seventh aspect of the present invention, in the fifth aspect of the present invention, the predetermined image processing is an image processing in which the processing result is less affected even if a candidate area is erroneously extracted or a candidate area is erroneously evaluated. In this case, the criterion of the evaluation is changed so that the criterion of the evaluation of the accuracy as the area corresponding to the main part is loosened, or the criterion of the selection is selected such that the candidate area evaluated as having the low accuracy is also selected. Or the weighting criterion is changed so that the weight for the candidate area evaluated as having the low accuracy is relatively large. In addition to the above-described effects, erroneous extraction of the candidate area and erroneous evaluation of the candidate area are performed. In this case, there is an effect that the processing result of the post-processing is less affected, and an appropriate processing result is obtained.

【0111】請求項8記載の発明は、請求項1の発明に
おいて、候補領域内の濃度が第1の所定値よりも高い
か、又は第2の所定値よりも低い候補領域については、
前記主要部に相当する領域としての確度の評価を低くす
るか、又は前記主要部に相当する領域としての確度の高
い候補領域を選択する際の選択の基準を高くするので、
上記効果に加え、濃度が極端に高いか又は極端に低い領
域が候補領域として誤抽出された場合にも、後処理の処
理結果が不適正となることを回避できる、という効果を
有する。
According to an eighth aspect of the present invention, in the first aspect of the present invention, for a candidate area whose density in a candidate area is higher than a first predetermined value or lower than a second predetermined value,
Either lowering the evaluation of the accuracy as the region corresponding to the main part, or increasing the selection criterion when selecting a candidate region with high accuracy as the region corresponding to the main part,
In addition to the above effects, there is an effect that even when a region having an extremely high or extremely low density is erroneously extracted as a candidate region, it is possible to avoid an inappropriate result of the post-processing.

【0112】請求項10記載の発明は、画像データが表
す画像中の主要部に相当すると推定される候補領域を複
数抽出する第1のステップ、画像上で他の候補領域と重
複している候補領域について重複度を求める第2のステ
ップ、他の候補領域と重複している候補領域に対する主
要部に相当する領域としての確度の評価が、他の候補領
域と重複していない候補領域に対する前記評価よりも高
くなり、かつ他の候補領域との重複度が高くなるに従っ
て更に高くなるように、各候補領域に対して主要部に相
当する領域としての確度を評価する第3のステップを含
む処理をコンピュータに実行させるためのプログラムを
記録媒体に記録したので、画像中の主要部に相当すると
推定される領域の誤抽出による影響を低減することがで
きる、という優れた効果を有する。
According to a tenth aspect of the present invention, there is provided a first step of extracting a plurality of candidate areas which are presumed to correspond to the main part in an image represented by image data, A second step of determining the degree of overlap for the region, the evaluation of the accuracy as a region corresponding to the main part for the candidate region overlapping with another candidate region, And a process including a third step of evaluating the accuracy of each candidate region as a region corresponding to a main part, so that the candidate region becomes higher as the degree of overlap with another candidate region becomes higher. Since the program to be executed by the computer is recorded on a recording medium, the effect of erroneous extraction of an area estimated to correspond to a main part in an image can be reduced. It has an effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態に係る画像処理システムの概略構成
図である。
FIG. 1 is a schematic configuration diagram of an image processing system according to an embodiment.

【図2】本実施形態に係る顔領域抽出・濃度演算処理の
内容を示すフローチャートである。
FIG. 2 is a flowchart showing the contents of a face area extraction / density calculation process according to the embodiment.

【図3】顔候補領域抽出処理による処理結果の一例を示
すイメージ図である。
FIG. 3 is an image diagram showing an example of a processing result by a face candidate area extraction processing.

【図4】(A)は重複している一対の顔候補領域の一例
を示すイメージ図、(B)及び(C)は重複度に応じて
重み点数を設定するためのマップの一例を示す線図であ
る。
FIG. 4A is an image diagram showing an example of a pair of overlapping face candidate regions, and FIGS. 4B and 4C are diagrams showing an example of a map for setting weight points according to the degree of overlap; It is.

【図5】(A)は濃度が極端に高い又は極端に低い顔候
補領域に対する重み点数を修正するためのマップを示す
線図、(B)は濃度が極端に高い又は極端に低い顔候補
領域が存在していた場合の顔領域判定用の閾値の変更を
説明する線図である。
5A is a diagram showing a map for correcting a weight score for a face candidate region having an extremely high or extremely low density, and FIG. 5B is a diagram showing a face candidate region having an extremely high or extremely low density. FIG. 9 is a diagram illustrating a change of a threshold for determining a face area in the case where is present.

【符号の説明】[Explanation of symbols]

10 画像処理システム 14 画像処理装置 40 イメージプロセッサ 44 オートセットアップエンジン 72 情報記憶媒体 Reference Signs List 10 image processing system 14 image processing device 40 image processor 44 auto setup engine 72 information storage medium

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 画像データに基づいて、該画像データが
表す画像中の主要部に相当すると推定される候補領域を
抽出し、 前記抽出した候補領域のうち、画像上で他の候補領域と
重複している候補領域について、前記他の候補領域との
重複度を求め、 他の候補領域と重複している候補領域に対する前記画像
中の主要部に相当する領域としての確度の評価が、他の
候補領域と重複していない候補領域に対する前記評価よ
りも高くなり、かつ他の候補領域との重複度が高くなる
に従って更に高くなるように、前記抽出した候補領域に
対して前記主要部に相当する領域としての確度を評価す
る画像処理方法。
1. A candidate area which is presumed to correspond to a main part in an image represented by the image data is extracted based on the image data, and the extracted candidate area overlaps with another candidate area on an image. The degree of overlap with the other candidate area is determined for the candidate area that has been determined, and the evaluation of the accuracy of the candidate area overlapping with the other candidate area as the area corresponding to the main part in the image is performed. The extracted candidate region corresponds to the main part so that the evaluation is higher than the evaluation for the candidate region not overlapping with the candidate region, and further higher as the degree of overlap with the other candidate regions is higher. An image processing method for evaluating the accuracy as a region.
【請求項2】 前記重複度として、重複している一対の
候補領域の各々の大きさを基準にして前記一対の候補領
域の距離を正規化した値、前記一対の候補領域の各々の
大きさを基準にして重複している領域の面積を正規化し
た値、及び前記一対の候補領域の各々の所定方向に沿っ
た大きさを基準にして重複している領域の所定方向に沿
った大きさを正規化した値の少なくとも1つを用いるこ
とを特徴とする請求項1記載の画像処理方法。
2. A value obtained by normalizing a distance between the pair of candidate regions based on a size of each of the pair of overlapping candidate regions as the degree of overlap, a size of each of the pair of candidate regions. A value obtained by normalizing the area of the overlapping region based on the reference, and the size along the predetermined direction of the overlapping region based on the size along the predetermined direction of each of the pair of candidate regions. 2. The image processing method according to claim 1, wherein at least one value obtained by normalizing is used.
【請求項3】 前記抽出した候補領域に対して前記主要
部に相当する領域としての確度を評価した結果を表す評
価値を閾値と比較することで、前記抽出した候補領域か
ら前記主要部に相当する領域としての確度の高い候補領
域を選択することを特徴とする請求項1記載の画像処理
方法。
3. An extracted value corresponding to the main part from the extracted candidate area is compared with a threshold by comparing an evaluation value representing a result of evaluating the accuracy of the extracted candidate area as an area corresponding to the main part. 2. The image processing method according to claim 1, wherein a candidate area having a high degree of certainty as the area to be selected is selected.
【請求項4】 前記抽出した候補領域又は抽出した候補
領域から選択した候補領域を、前記主要部に相当する領
域としての確度を評価した結果を表す評価値に従って重
み付けし、前記主要部の画像特徴量として、前記抽出し
た候補領域又は前記選択した候補領域の画像特徴量の加
重平均を演算することを特徴とする請求項1記載の画像
処理方法。
4. A method for weighting the extracted candidate region or a candidate region selected from the extracted candidate regions according to an evaluation value representing a result of evaluating the accuracy as a region corresponding to the main portion, 2. The image processing method according to claim 1, wherein a weighted average of image feature amounts of the extracted candidate region or the selected candidate region is calculated as the amount.
【請求項5】 前記抽出した候補領域に対して前記主要
部に相当する領域としての確度を評価した後に、該評価
の結果に基づいて、前記主要部に相当する領域としての
確度の高い候補領域の選択及び前記抽出した候補領域の
重み付けの少なくとも一方を含む所定の画像処理を行う
場合に、 前記所定の画像処理の種類に応じて、前記評価の基準を
変更するか、又は前記選択又は前記重み付けの基準を変
更することを特徴とする請求項1記載の画像処理方法。
5. After evaluating the probability of the extracted candidate region as a region corresponding to the main part, a candidate region having a high probability as a region corresponding to the main part is determined based on a result of the evaluation. When performing predetermined image processing including at least one of selection and weighting of the extracted candidate area, according to the type of the predetermined image processing, the evaluation criterion is changed, or the selection or the weighting is changed. 2. The image processing method according to claim 1, wherein the reference is changed.
【請求項6】 前記所定の画像処理が、候補領域の誤抽
出や候補領域の誤評価があると処理結果が多大な影響を
受ける画像処理である場合に、主要部に相当する領域と
しての確度の評価の基準が厳しくなるように前記評価の
基準を変更するか、前記確度がより高いと評価された候
補領域のみが選択されるように前記選択の基準を変更す
るか、前記確度が低いと評価された候補領域に対する重
みが相対的に小さくなるように重み付けの基準を変更す
ることを特徴とする請求項5記載の画像処理方法。
6. The accuracy as a region corresponding to a main part when the predetermined image processing is an image processing in which a processing result is greatly affected when a candidate region is erroneously extracted or a candidate region is erroneously evaluated. Either change the evaluation criterion so that the evaluation criterion becomes strict, or change the selection criterion so that only the candidate area evaluated as having higher accuracy is selected, or if the accuracy is low. 6. The image processing method according to claim 5, wherein the weighting criterion is changed so that the weight for the evaluated candidate area becomes relatively small.
【請求項7】 前記所定の画像処理が、候補領域の誤抽
出や候補領域の誤評価があっても処理結果が受ける影響
の小さい画像処理である場合に、主要部に相当する領域
としての確度の評価の基準が緩くなるように前記評価の
基準を変更するか、前記確度が低いと評価された候補領
域も選択されるように前記選択の基準を変更するか、前
記確度が低いと評価された候補領域に対する重みが相対
的に大きくなるように重み付けの基準を変更することを
特徴とする請求項5記載の画像処理方法。
7. The accuracy as a region corresponding to a main part when the predetermined image processing is an image processing that does not greatly affect the processing result even if erroneous extraction of a candidate region or erroneous evaluation of a candidate region is performed. Either change the evaluation criterion so that the evaluation criterion is relaxed, or change the selection criterion so that the candidate area evaluated as having low accuracy is also selected, or is evaluated as having low accuracy. 6. The image processing method according to claim 5, wherein the criterion of the weight is changed such that the weight for the candidate area becomes relatively large.
【請求項8】 候補領域内の濃度が第1の所定値よりも
高いか、又は第2の所定値よりも低い候補領域について
は、前記主要部に相当する領域としての確度の評価を低
くするか、又は前記主要部に相当する領域としての確度
の高い候補領域を選択する際の選択の基準を高くするこ
とを特徴とする請求項1記載の画像処理方法。
8. For a candidate region whose density in the candidate region is higher than a first predetermined value or lower than a second predetermined value, the evaluation of the accuracy as a region corresponding to the main part is reduced. 2. The image processing method according to claim 1, wherein a selection criterion for selecting a candidate area having high accuracy as an area corresponding to the main part is increased.
【請求項9】 画像データに基づいて、該画像データが
表す画像中の主要部に相当すると推定される候補領域を
抽出する抽出手段と、 前記抽出した候補領域のうち、画像上で他の候補領域と
重複している候補領域について、前記他の候補領域との
重複度を求める演算手段と、 他の候補領域と重複している候補領域に対する前記画像
中の主要部に相当する領域としての確度の評価が、他の
候補領域と重複していない候補領域に対する前記評価よ
りも高くなり、かつ他の候補領域との重複度が高くなる
に従って更に高くなるように、前記抽出した候補領域に
対して前記主要部に相当する領域としての確度を評価す
る評価手段と、 を含む画像処理装置。
9. Extraction means for extracting a candidate area estimated to correspond to a main part in an image represented by the image data, based on the image data, and another candidate area on the image among the extracted candidate areas Calculating means for calculating the degree of overlap with the other candidate area with respect to the candidate area overlapping with the area; Is higher than the evaluation for a candidate region that does not overlap with another candidate region, and further increases as the degree of overlap with other candidate regions increases, so that the extracted candidate region Evaluation means for evaluating the accuracy as an area corresponding to the main part.
【請求項10】 画像データに基づいて、該画像データ
が表す画像中の主要部に相当すると推定される候補領域
を抽出する第1のステップ、 前記抽出した候補領域のうち、画像上で他の候補領域と
重複している候補領域について、前記他の候補領域との
重複度を求める第2のステップ、 他の候補領域と重複している候補領域に対する前記画像
中の主要部に相当する領域としての確度の評価が、他の
候補領域と重複していない候補領域に対する前記評価よ
りも高くなり、かつ他の候補領域との重複度が高くなる
に従って更に高くなるように、前記抽出した候補領域に
対して前記主要部に相当する領域としての確度を評価す
る第3のステップを含む処理をコンピュータに実行させ
るためのプログラムが記憶された記録媒体。
10. A first step of extracting, based on the image data, a candidate area estimated to correspond to a main part in the image represented by the image data, out of the extracted candidate areas, A second step of obtaining a degree of overlap with the other candidate area with respect to the candidate area overlapping with the candidate area; The accuracy of the evaluation is higher than the evaluation for a candidate region that does not overlap with other candidate regions, and further increases as the degree of overlap with other candidate regions increases, so that the extracted candidate region A recording medium storing a program for causing a computer to execute a process including a third step of evaluating the accuracy as an area corresponding to the main part.
JP20435899A 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium Expired - Lifetime JP3506958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20435899A JP3506958B2 (en) 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP25705298 1998-09-10
JP10-257052 1998-09-10
JP20435899A JP3506958B2 (en) 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000149018A true JP2000149018A (en) 2000-05-30
JP3506958B2 JP3506958B2 (en) 2004-03-15

Family

ID=26514430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20435899A Expired - Lifetime JP3506958B2 (en) 1998-09-10 1999-07-19 Image processing method, image processing apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3506958B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022441A (en) * 2001-07-06 2003-01-24 Minolta Co Ltd Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
US7065310B2 (en) 2003-12-18 2006-06-20 Seiko Epson Corporation Image forming apparatus that quickly removes ozone present in the vicinity of a corona charger
JP2007074673A (en) * 2005-09-09 2007-03-22 Sony Corp Image processing apparatus and method, and program
JP2007086940A (en) * 2005-09-21 2007-04-05 Noritsu Koki Co Ltd Image processing device and image processing method
US7289664B2 (en) 2002-01-17 2007-10-30 Fujifilm Corporation Method of detecting and correcting the red eye
JP2008097657A (en) * 2008-01-11 2008-04-24 Canon Inc Image processor and method
US7397969B2 (en) 2002-08-30 2008-07-08 Fujifilm Corporation Red eye compensation method, image processing apparatus and method for implementing the red eye compensation method, as well as printing method and printer
JP2009217607A (en) * 2008-03-11 2009-09-24 Seiko Epson Corp Calculation for reliability in detecting face region in image
US7613332B2 (en) 2004-03-31 2009-11-03 Fujifilm Corporation Particular-region detection method and apparatus, and program therefor
US7620242B2 (en) 2004-04-06 2009-11-17 Fujifilm Corporation Particular-region detection method and apparatus, and program therefor
JP2009284071A (en) * 2008-05-20 2009-12-03 Nikon Corp Image analyzer, and imaging apparatus
WO2010032298A1 (en) * 2008-09-17 2010-03-25 富士通株式会社 Image processing device, image processing method, and image processing program
JP2010102725A (en) * 2002-08-22 2010-05-06 Eastman Kodak Co Method for detecting object in digital image
US7769233B2 (en) 2004-03-22 2010-08-03 Fujifilm Corporation Particular-region detection method and apparatus
US7929042B2 (en) 2006-09-22 2011-04-19 Sony Corporation Imaging apparatus, control method of imaging apparatus, and computer program
US8018612B2 (en) 2006-03-31 2011-09-13 Fujifilm Corporation Image processing apparatuses, methods and systems that select an apparatus for performing image processing on an image
US8254673B2 (en) 2006-12-13 2012-08-28 Samsung Electronics Co., Ltd. Apparatus and method of color converting a dominant color
US8358838B2 (en) 2006-03-30 2013-01-22 Fujifilm Corporation Red eye detecting apparatus, red eye detecting method and red eye detecting program stored on a computer readable medium
JP2013061802A (en) * 2011-09-13 2013-04-04 Canon Inc Image recognizing apparatus, image recognizing method, and program
US8520939B2 (en) 2006-12-07 2013-08-27 Samsung Electronics Co., Ltd. Apparatus and method of reproducing preferred color
JP5379126B2 (en) * 2007-06-01 2013-12-25 フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー How to start the automation process department
JP2014191369A (en) * 2013-03-26 2014-10-06 Mega Chips Corp Image detection apparatus, control program, and image detection method
JP2016040674A (en) * 2014-08-12 2016-03-24 セコム株式会社 Object detection device
JP2017049891A (en) * 2015-09-03 2017-03-09 日本電信電話株式会社 Object region identification method, device and program
JP2017068739A (en) * 2015-10-01 2017-04-06 日本電信電話株式会社 Apparatus, method and program for calculating object saliency map
JPWO2018189802A1 (en) * 2017-04-11 2019-04-18 楽天株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
WO2019088223A1 (en) * 2017-11-02 2019-05-09 株式会社Nttドコモ Detection device and detection program
WO2020160154A1 (en) * 2019-01-30 2020-08-06 Realnetworks, Inc. Method for selecting images in video of faces in the wild
JP7377078B2 (en) 2019-11-21 2023-11-09 キヤノン株式会社 Image processing device, image processing method, and imaging device

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022441A (en) * 2001-07-06 2003-01-24 Minolta Co Ltd Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction.
JP2003196653A (en) * 2001-12-07 2003-07-11 Eastman Kodak Co Method and system for improving image characteristic based on image content
JP4498671B2 (en) * 2001-12-07 2010-07-07 イーストマン コダック カンパニー Method and system for improving image characteristics based on image content
US7289664B2 (en) 2002-01-17 2007-10-30 Fujifilm Corporation Method of detecting and correcting the red eye
JP2010102725A (en) * 2002-08-22 2010-05-06 Eastman Kodak Co Method for detecting object in digital image
US7397969B2 (en) 2002-08-30 2008-07-08 Fujifilm Corporation Red eye compensation method, image processing apparatus and method for implementing the red eye compensation method, as well as printing method and printer
US7065310B2 (en) 2003-12-18 2006-06-20 Seiko Epson Corporation Image forming apparatus that quickly removes ozone present in the vicinity of a corona charger
US7769233B2 (en) 2004-03-22 2010-08-03 Fujifilm Corporation Particular-region detection method and apparatus
US7613332B2 (en) 2004-03-31 2009-11-03 Fujifilm Corporation Particular-region detection method and apparatus, and program therefor
US7620242B2 (en) 2004-04-06 2009-11-17 Fujifilm Corporation Particular-region detection method and apparatus, and program therefor
JP2007074673A (en) * 2005-09-09 2007-03-22 Sony Corp Image processing apparatus and method, and program
JP2007086940A (en) * 2005-09-21 2007-04-05 Noritsu Koki Co Ltd Image processing device and image processing method
US8358838B2 (en) 2006-03-30 2013-01-22 Fujifilm Corporation Red eye detecting apparatus, red eye detecting method and red eye detecting program stored on a computer readable medium
US8018612B2 (en) 2006-03-31 2011-09-13 Fujifilm Corporation Image processing apparatuses, methods and systems that select an apparatus for performing image processing on an image
US7929042B2 (en) 2006-09-22 2011-04-19 Sony Corporation Imaging apparatus, control method of imaging apparatus, and computer program
US8520939B2 (en) 2006-12-07 2013-08-27 Samsung Electronics Co., Ltd. Apparatus and method of reproducing preferred color
US8254673B2 (en) 2006-12-13 2012-08-28 Samsung Electronics Co., Ltd. Apparatus and method of color converting a dominant color
JP5379126B2 (en) * 2007-06-01 2013-12-25 フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー How to start the automation process department
JP2008097657A (en) * 2008-01-11 2008-04-24 Canon Inc Image processor and method
JP2009217607A (en) * 2008-03-11 2009-09-24 Seiko Epson Corp Calculation for reliability in detecting face region in image
JP2009284071A (en) * 2008-05-20 2009-12-03 Nikon Corp Image analyzer, and imaging apparatus
WO2010032298A1 (en) * 2008-09-17 2010-03-25 富士通株式会社 Image processing device, image processing method, and image processing program
JP2013061802A (en) * 2011-09-13 2013-04-04 Canon Inc Image recognizing apparatus, image recognizing method, and program
JP2014191369A (en) * 2013-03-26 2014-10-06 Mega Chips Corp Image detection apparatus, control program, and image detection method
JP2016040674A (en) * 2014-08-12 2016-03-24 セコム株式会社 Object detection device
JP2017049891A (en) * 2015-09-03 2017-03-09 日本電信電話株式会社 Object region identification method, device and program
JP2017068739A (en) * 2015-10-01 2017-04-06 日本電信電話株式会社 Apparatus, method and program for calculating object saliency map
JPWO2018189802A1 (en) * 2017-04-11 2019-04-18 楽天株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
WO2019088223A1 (en) * 2017-11-02 2019-05-09 株式会社Nttドコモ Detection device and detection program
JPWO2019088223A1 (en) * 2017-11-02 2020-11-26 株式会社Nttドコモ Detection device and detection program
JP7149953B2 (en) 2017-11-02 2022-10-07 株式会社Nttドコモ Detection device and detection program
WO2020160154A1 (en) * 2019-01-30 2020-08-06 Realnetworks, Inc. Method for selecting images in video of faces in the wild
US10963675B2 (en) 2019-01-30 2021-03-30 Realnetworks, Inc. Method for selecting images in video of faces in the wild
US11804071B2 (en) 2019-01-30 2023-10-31 Realnetworks Llc Method for selecting images in video of faces in the wild
JP7377078B2 (en) 2019-11-21 2023-11-09 キヤノン株式会社 Image processing device, image processing method, and imaging device

Also Published As

Publication number Publication date
JP3506958B2 (en) 2004-03-15

Similar Documents

Publication Publication Date Title
JP3506958B2 (en) Image processing method, image processing apparatus, and recording medium
JP4153108B2 (en) Image processing method, image processing apparatus, and recording medium
US6445819B1 (en) Image processing method, image processing device, and recording medium
US6665434B1 (en) Device, method, and recordium for correcting color imbalance of an image
US8391595B2 (en) Image processing method and image processing apparatus
JP2000148980A (en) Image processing method, image processor and recording medium
JP3961734B2 (en) Image processing method, apparatus, and recording medium
US7408569B1 (en) Image processing device, image processing method and recording medium
JP3028945B2 (en) Multi-tone rounding correction processing method and pattern inspection apparatus
JP5810628B2 (en) Image processing apparatus and image processing program
KR20070008652A (en) Method for extracting raw data of a photographed image
US6701007B1 (en) Image processing device, image processing method, and recording medium for correcting color balance of output images
US20050013502A1 (en) Method of improving image quality
US9131193B2 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JPH09186877A (en) Image processor
US7333240B2 (en) Color image processor
JP3040896B2 (en) Image processing device
JPH10187972A (en) Discriminating method for light source color
JP2000152067A (en) Method and device for picture processing and recording medium
JPH10269352A (en) Image processor and method
JP2001167277A (en) Method and device for processing image, recording medium and transmitting medium
JPH11308474A (en) Image processor
JP2006048223A (en) Image processor, image processing method and computer program
WO2023013546A1 (en) Computer program, generation device, and generation method
JP4181732B2 (en) Image discrimination method, image processing method using the same, and recording medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031217

R150 Certificate of patent or registration of utility model

Ref document number: 3506958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081226

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091226

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101226

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101226

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131226

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term