JP2004334836A - Method of extracting image feature, image feature extracting program, imaging device, and image processing device - Google Patents

Method of extracting image feature, image feature extracting program, imaging device, and image processing device Download PDF

Info

Publication number
JP2004334836A
JP2004334836A JP2004076073A JP2004076073A JP2004334836A JP 2004334836 A JP2004334836 A JP 2004334836A JP 2004076073 A JP2004076073 A JP 2004076073A JP 2004076073 A JP2004076073 A JP 2004076073A JP 2004334836 A JP2004334836 A JP 2004334836A
Authority
JP
Japan
Prior art keywords
image
feature portion
size
feature
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004076073A
Other languages
Japanese (ja)
Other versions
JP4338560B2 (en
Inventor
Masahiko Sugimoto
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004076073A priority Critical patent/JP4338560B2/en
Priority to US10/822,003 priority patent/US20040228505A1/en
Publication of JP2004334836A publication Critical patent/JP2004334836A/en
Application granted granted Critical
Publication of JP4338560B2 publication Critical patent/JP4338560B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To extract features, such as a human face in an image, at a high speed as well as at high precision. <P>SOLUTION: In an image feature extracting method wherein images of required size are segmented, one by one from an image to be processed, each segmented image is compared with collation data of a feature image, and whether there is the feature image in the image to be processed is detected, the range of the size of the feature image, in contrast to the size of the image to be processed, is limited based on the information of distance from an object, when the image to be processed is photographed (Step S6). Thus, comparison of too large or too small segmented images, as compared to the feature image for which the collation data can be skipped, and processing at higher speed as well as with higher precision can be attained. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、処理対象画像中に顔などの特徴部分画像が存在するか否かを高速に抽出することができる画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置に関する。   The present invention relates to an image feature extraction method, a feature extraction program, an imaging apparatus, and an image processing apparatus that can extract at high speed whether or not a feature part image such as a face exists in a processing target image.

例えばデジタルカメラには、下記特許文献1に記載されている様に、被写体の顔部分を画面内から抽出し、抽出した顔の目にデジタルカメラの焦点を自動的に合わせる自動焦点装置が搭載されているものがある。しかし、この特許文献1は、焦点合わせの技術について開示があるのみであり、被写体の顔部分をどの様にして抽出すれば高速に顔画像の抽出処理が可能かについての考察がない。   For example, as described in Patent Document 1 below, a digital camera is equipped with an autofocus device that extracts a face part of a subject from the screen and automatically focuses the digital camera on the extracted face. There is something that is. However, this Patent Document 1 only discloses a focusing technique, and there is no consideration as to how a facial image can be extracted at high speed by extracting the face portion of the subject.

顔部分を画面内から抽出する場合、多くの場合、テンプレートマッチングが用いられる。これは、被写体画像からサーチウインドウで順次切り出した各切出画像と顔のテンプレートとの類似度を順次判定し、顔のテンプレートに対して閾値以上の類似度で一致するサーチウインドウ位置に被写体の顔が在ると判定するものである。   When extracting a face part from the screen, template matching is often used. This is because the similarity between each cut image sequentially extracted from the subject image in the search window and the face template is sequentially determined, and the face of the subject is located at the search window position that matches the face template with a similarity equal to or greater than a threshold value. It is determined that there is.

このテンプレートマッチング処理を行う場合、従来は、被写体の顔が画面内でどの程度の大きさに映っているか分からないため、顔のテンプレートとして小さなテンプレートから画面一杯の大きさのテンプレートまで、大きさの異なるテンプレートを多数用意しておき、全てのテンプレートを用いてテンプレートマッチング処理を行い、顔画像を抽出している。   Conventionally, when performing this template matching process, it is not known how big the subject's face is on the screen, so the size of the face template can vary from small to full screen. Many different templates are prepared, template matching processing is performed using all templates, and face images are extracted.

特開2001―215403公報Japanese Patent Laid-Open No. 2001-215403

被写体の顔等の特徴部分を撮影前などに抽出できれば、被写体の顔に自動焦点合わせをするまでの時間を短縮できたり、また、顔の肌色に合うようにホワイトバランスをとった撮影ができるなど、利点が多い。しかし、従来の様に顔のテンプレートを小さなものから大きなものまで多数用意し、各テンプレートを用いたマッチング処理を行わなければならなかったので、顔の抽出処理に時間がかかってしまうという問題がある。また、多数のテンプレート画像をメモリに用意すると、メモリ容量が大きくなってカメラのコスト増を招くという問題もある。   If features such as the subject's face can be extracted before shooting, etc., the time to auto-focus on the subject's face can be reduced, and white balance photography can be performed to match the skin color of the face, etc. There are many advantages. However, there is a problem that it takes a long time to extract a face because it has been necessary to prepare a large number of face templates from small to large and perform matching using each template as before. . In addition, if a large number of template images are prepared in the memory, there is a problem that the memory capacity increases and the cost of the camera increases.

上述した例は、カメラで人を撮影する場合であるが、例えば画像処理装置やプリンタにカメラから処理対象画像を読み込み、この処理対象画像中に人の顔があるか否かを検出し、肌色に合わせた画像補正や、例えばフラッシュ発光による赤目を修正する場合にも、高速に顔などの特徴部分画像が抽出できれば便利である。   The above-mentioned example is a case where a person is photographed with a camera. For example, an image processing apparatus or printer reads a processing target image from the camera, detects whether or not a human face is present in the processing target image, and flesh color It is convenient if a feature part image such as a face can be extracted at a high speed even in image correction adapted to the above, or for correcting red eyes by flash emission, for example.

本発明の目的は、処理対象画像中から顔等の特徴部分画像を高速かつ高精度に抽出することができる画像の特徴部分抽出方法及び特徴部分抽出プログラム並びに撮像装置と画像処理装置を提供することにある。   An object of the present invention is to provide an image feature portion extraction method, a feature portion extraction program, an imaging device, and an image processing device capable of extracting a feature portion image such as a face from a processing target image at high speed and with high accuracy. It is in.

本発明の画像の特徴部分抽出方法は、処理対象画像から所要の大きさの画像を順次切り出し、各切出画像と特徴部分画像の照合データとを比較して前記処理対象画像中に前記特徴部分画像が存在するか否かを検出する画像の特徴部分抽出方法であって、前記処理対象画像の大きさに対する前記特徴部分画像の大きさの範囲を該処理対象画像が撮像されたときの被写体までの距離情報に基づいて限定し前記照合データと比較する前記切出画像の大きさを制限することを特徴とする。   In the image feature portion extraction method of the present invention, an image having a required size is sequentially cut out from a processing target image, and each feature image is compared with each extracted image and comparison data of the feature portion image. An image feature portion extraction method for detecting whether or not an image exists, wherein a range of the size of the feature portion image with respect to the size of the processing target image is measured up to a subject when the processing target image is captured And limiting the size of the cut-out image to be compared with the collation data.

この構成により、特徴部分画像の大きさに比べて大きすぎる部分画像や小さすぎる部分画像を処理対象画像から切り出して照合データと比較するという無駄な処理を省くことができ、処理時間の短縮を図ることが可能となる。また、使用する照合データや切出画像の大きさを距離情報に基づいて制限するため、見当違いの大きさのものでも特徴部分(例えば、顔)らしきものを特徴部分として誤検出してしまうことを防止できる。   With this configuration, it is possible to omit useless processing of cutting out a partial image that is too large or too small compared to the size of the characteristic partial image from the processing target image and comparing it with the collation data, thereby shortening the processing time. It becomes possible. In addition, since the size of the collation data to be used and the cut-out image is limited based on the distance information, a feature part (for example, a face) may be erroneously detected as a feature part even if the size is misregistered. Can be prevented.

本発明の特徴部分抽出方法の前記限定は、前記被写体までの距離情報の他に撮影レンズの焦点距離情報を用いて行うことを特徴とする。   The limitation of the characteristic portion extraction method of the present invention is performed using focal length information of the photographing lens in addition to the distance information to the subject.

この構成により、特徴部分(例えば、顔)の入る範囲を更に高精度に制限することが可能となる。   With this configuration, it is possible to limit the range in which a characteristic portion (for example, a face) enters with higher accuracy.

本発明の特徴部分抽出方法の前記比較は、前記処理対象画像をリサイズしたリサイズ画像を用いて行うことを特徴とする。   The comparison of the feature portion extraction method of the present invention is performed using a resized image obtained by resizing the processing target image.

この構成により、例えば個々人によって異なる顔画像を個々人の違いに関わらずに抽出することが容易となる。   With this configuration, for example, it becomes easy to extract face images that differ depending on the individual regardless of the difference between the individuals.

本発明の特徴部分抽出方法の前記比較は、決まった大きさの特徴部分画像に対応する前記照合データを用い、前記リサイズ画像の大きさを変化させて行い、あるいは、逆に、前記リサイズ画像の大きさを固定し前記特徴部分画像の大きさを変化させた前記照合データを用いて行うことを特徴とする。   The comparison of the feature portion extraction method of the present invention is performed by changing the size of the resized image using the collation data corresponding to the feature portion image having a fixed size, or conversely, It is characterized by using the collation data in which the size is fixed and the size of the feature portion image is changed.

この構成により、特徴部分画像の抽出を高速に行うことが可能となる。   With this configuration, it is possible to extract feature portion images at high speed.

本発明の特徴部分抽出方法の前記照合データは、前記特徴部分画像のテンプレート画像データであることを特徴とする。   In the feature portion extraction method of the present invention, the collation data is template image data of the feature portion image.

テンプレート画像データを用いて特徴部分画像例えば顔画像を抽出する場合、複数種類のテンプレート画像データを用意するのが好ましい。例えば、普通の人の顔のテンプレートの他に、眼鏡を掛けた人のテンプレート、年寄りの顔のテンプレート、乳児の顔のテンプレート等を用意しておくことで、精度良く顔画像の抽出ができる。   When extracting a feature part image such as a face image using template image data, it is preferable to prepare a plurality of types of template image data. For example, in addition to a normal person's face template, a face image can be extracted with high accuracy by preparing a template for a person wearing glasses, an elderly face template, an infant face template, and the like.

本発明の特徴部分抽出方法の前記照合データは、前記特徴部分画像の特徴量を数値化したデータであることを特徴とする。   In the feature portion extraction method of the present invention, the collation data is data obtained by quantifying the feature amount of the feature portion image.

数値化した照合データとは、例えば、特徴部分画像の画素位置毎の画素値(濃度値)を数値化したデータである。あるいは、実際の画像に対して、ニューラルネットや遺伝的アルゴリズム等の機械学習アルゴリズムを使用してコンピュータに顔画像を学習させて得られる照合データである。この場合にも、テンプレート画像と同様に、普通の人の顔の照合データの他に、眼鏡を掛けた人の照合データ、年寄りの顔の照合データ、乳児の顔の照合データ等、各種用意しておくのが好ましい。数値化したデータであるため、多種類用意してもメモリ容量は大きくならない。   The digitized collation data is, for example, data obtained by digitizing pixel values (density values) for each pixel position of the characteristic partial image. Alternatively, it is collation data obtained by causing a computer to learn a face image using a machine learning algorithm such as a neural network or a genetic algorithm for an actual image. In this case as well, as with the template image, in addition to normal human face verification data, various types of data such as verification data for a person wearing glasses, verification data for an elderly face, verification data for an infant's face are prepared. It is preferable to keep it. Since the data is digitized, the memory capacity does not increase even if many types are prepared.

本発明の特徴部分抽出方法の前記照合データは、前記特徴部分画像の特徴量を抽出するルールを記述したデータで構成されることを特徴とする。   The collation data of the feature portion extraction method of the present invention is characterized by comprising data describing rules for extracting feature amounts of the feature portion images.

この構成によっても、数値化データと同様であり、特徴部分画像の処理対象画像中における探索範囲が限定されるため、高速に特徴部分画像を抽出することができる。   This configuration is the same as the digitized data, and the search range of the feature partial image in the processing target image is limited, so that the feature partial image can be extracted at high speed.

本発明の特徴部分抽出プログラムは、前記処理対象画像の大きさに対する前記特徴部分画像の大きさの範囲を該処理対象画像が撮像されたときの被写体までの距離情報に基づいて限定し前記切出画像の大きさを制限するステップを備えることを特徴とする。   The feature portion extraction program of the present invention limits the size range of the feature portion image with respect to the size of the processing target image based on distance information to a subject when the processing target image is captured. A step of limiting the size of the image is provided.

画像の特徴部分抽出方法をプログラム化しておくことで、コンピュータ搭載機器にこのプログラムを実行させることができ、様々な利用が可能となる。   By making the image feature extraction method into a program, it is possible to cause the computer-equipped device to execute this program, and various uses are possible.

本発明の画像処理装置は、上記の特徴部分抽出プログラムを搭載し、該特徴部分抽出プログラムが前記ステップを実行するときに使用する前記距離情報は、前記処理対象画像にタグ情報として付加されている距離情報であることを特徴とする。   The image processing apparatus of the present invention includes the above-described feature portion extraction program, and the distance information used when the feature portion extraction program executes the step is added as tag information to the processing target image. It is distance information.

この構成により、画像処理装置は、各種補正処理を行うことが可能となる。例えば、明るさ補正、色補正、輪郭補正、階調補正、欠陥補正等を行うことができる。これらの補正処理は、画像全体に適用するものとは限らず、画像内の局所的な領域に対する補正処理も含む。また、処理対象画像に距離情報がタグ情報として付加されていれば、画像処理装置は容易に処理対象画像中の特徴部分画像の大きさがどの程度であるかを算出することができ、これによって探索範囲を狭めることができる。   With this configuration, the image processing apparatus can perform various correction processes. For example, brightness correction, color correction, contour correction, gradation correction, defect correction, and the like can be performed. These correction processes are not necessarily applied to the entire image, but also include correction processes for local regions in the image. If the distance information is added to the processing target image as tag information, the image processing apparatus can easily calculate the size of the feature part image in the processing target image. The search range can be narrowed.

本発明の撮像装置は、上記の特徴部分抽出プログラムと、該特徴部分抽出プログラムの前記ステップの実行時に必要となる前記距離情報を求める手段とを備えることを特徴とする。   An imaging apparatus according to the present invention includes the above-described feature portion extraction program and means for obtaining the distance information necessary when executing the step of the feature portion extraction program.

この構成により、撮像装置は、撮影時に特徴部分たとえば人の顔に合焦させたり、顔の肌色が奇麗になるように補正した画像データを出力することが可能となる。   With this configuration, the imaging apparatus can output image data corrected to focus on a characteristic portion, for example, a human face, or to have a beautiful skin color at the time of shooting.

本発明の撮像装置の前記手段は、測距センサ、撮影レンズを被写体に合焦させるときのモータ駆動パルス数の計数手段、撮影レンズの焦点距離情報を求める手段、人物撮影モード,風景撮影モード,マクロ撮影モード等の撮影モードから被写体までの距離を推定する手段、撮影レンズの焦点距離から被写体までの距離を推定する手段のいずれかを含むことを特徴とすることを特徴とする。   The means of the imaging apparatus of the present invention includes a distance measuring sensor, a means for counting the number of motor driving pulses when the photographing lens is focused on the subject, a means for obtaining focal length information of the photographing lens, a person photographing mode, a landscape photographing mode, It includes any one of means for estimating the distance to the subject from the photographing mode such as the macro photographing mode, and means for estimating the distance to the subject from the focal length of the photographing lens.

撮像装置に通常搭載されている測距センサや撮影レンズの合焦用モータ等を利用して距離情報を取得できるため、撮像装置のコストアップを低減できる。またこれらの測距センサやパルス計数手段が搭載されていない場合でも、撮影モードや撮影レンズの焦点距離情報から被写体までのおおよその距離を推定できるため、撮影画像中に含まれる特徴部分(例えば、顔)の大きさをある程度推定でき、これによって抽出する特徴部分の大きさの範囲を限定することができる。   Since distance information can be obtained by using a distance measuring sensor or a focusing lens that is normally mounted on the imaging apparatus, the cost of the imaging apparatus can be reduced. Even if these distance measuring sensors and pulse counting means are not installed, the approximate distance to the subject can be estimated from the photographing mode and the focal length information of the photographing lens. The size of the feature portion to be extracted can be limited.

本発明によれば、照合データとの比較処理で使用する切出画像の大きさを、特徴部分画像の大きさ範囲に制限するため、比較処理の回数が減り、処理の高速化と高精度化を図ることが可能となる。   According to the present invention, since the size of the cut-out image used in the comparison process with the collation data is limited to the size range of the feature portion image, the number of comparison processes is reduced, and the processing speed and accuracy are increased. Can be achieved.

以下、本発明の一実施形態について、図面を参照して説明する。尚、以下では撮像装置の一種であるデジタルカメラに搭載した特徴部分抽出プログラムが実行する画像の特徴部分抽出方法を例に説明するが、プリンタを含む画像処理装置や撮像装置一般にも同様の特徴部分抽出プログラムを搭載することで同様の効果を得ることができる。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the following description, an image feature extraction method executed by a feature extraction program installed in a digital camera, which is a kind of image pickup apparatus, will be described as an example. However, image processing apparatuses including printers and image pickup apparatuses generally have similar feature portions. A similar effect can be obtained by installing an extraction program.

(第1の実施形態)
図1は、本発明の第1の実施形態に係るデジタルスチルカメラの構成図である。このデジタルスチルカメラは、CCDやCMOS等の固体撮像素子1と、固体撮像素子1の前段に置かれたレンズ2及び絞り3と、固体撮像素子1から出力される画像信号に対し相関二重サンプリング処理等を施すアナログ信号処理部4と、アナログ信号処理された画像信号をデジタル信号に変換するA/D変換部5と、デジタル信号に変換された画像信号に対してガンマ補正,同時化処理など施すデジタル信号処理部6と、このデジタル信号処理部6によって処理された画像信号を格納する画像メモリ7と、ユーザがシャッタボタンを押下したときに画像メモリ7に格納された画像信号(撮影データ)を外部メモリ等に記録する記録部8と、カメラ背面等に設けられ画像メモリ7の格納内容をスルー表示する表示部9とを備える。
(First embodiment)
FIG. 1 is a configuration diagram of a digital still camera according to the first embodiment of the present invention. This digital still camera includes a solid-state imaging device 1 such as a CCD or a CMOS, a lens 2 and a diaphragm 3 placed in front of the solid-state imaging device 1, and correlated double sampling with respect to an image signal output from the solid-state imaging device 1. An analog signal processing unit 4 that performs processing, an A / D conversion unit 5 that converts an analog signal-processed image signal into a digital signal, gamma correction, synchronization processing, and the like for the image signal converted into a digital signal A digital signal processing unit 6 to be applied, an image memory 7 for storing an image signal processed by the digital signal processing unit 6, and an image signal (shooting data) stored in the image memory 7 when the user presses the shutter button. Is recorded on an external memory or the like, and a display unit 9 is provided on the back of the camera or the like and displays the stored contents of the image memory 7 through.

このデジタルスチルカメラは更に、CPUやROM,RAMでなる制御回路10と、ユーザからの指示入力を受け付けると共に上記表示部9に対してオンデマンド表示処理を行う操作部11と、撮像素子1から出力されデジタル信号処理部6によって処理された画像信号を取り込み制御回路10からの指示に基づいて詳細は後述するように被写体の特徴部分この例では顔部分を抽出する顔抽出処理部12と、レンズ2の焦点合わせや倍率制御を制御回路10からの指示信号に基づいて行うレンズ駆動部13と、絞り3の絞り量を制御回路10からの指示信号に基づいて制御する絞り駆動部14と、固体撮像素子1を制御回路10からの指示信号に基づいて駆動制御する撮像素子制御部15と、制御回路10からの指示信号に基づいて被写体までの距離を計測する測距センサ16とを備える。   The digital still camera further includes a control circuit 10 including a CPU, a ROM, and a RAM, an operation unit 11 that receives an instruction input from a user and performs an on-demand display process on the display unit 9, and an output from the image sensor 1. Then, the image signal processed by the digital signal processing unit 6 is taken in. Based on an instruction from the control circuit 10, as will be described in detail later, a feature extraction portion of the subject, in this example, a face extraction processing portion 12 that extracts a face portion, and the lens 2 A lens driving unit 13 that performs focusing and magnification control based on an instruction signal from the control circuit 10, a diaphragm driving unit 14 that controls an aperture amount of the diaphragm 3 based on an instruction signal from the control circuit 10, and solid-state imaging An image sensor control unit 15 that controls the driving of the element 1 based on an instruction signal from the control circuit 10 and a subject based on the instruction signal from the control circuit 10. And a distance measuring sensor 16 to measure the distance.

図2は、顔抽出処理部12が顔抽出プログラムに従って行う顔抽出処理の処理手順を示すフローチャートである。顔抽出プログラムは、図1に示す制御回路10のROM内に格納されており、CPUが顔抽出プログラムをRAMに読み出し実行することで、顔抽出処理部12が機能する。   FIG. 2 is a flowchart showing a processing procedure of face extraction processing performed by the face extraction processing unit 12 in accordance with the face extraction program. The face extraction program is stored in the ROM of the control circuit 10 shown in FIG. 1, and the face extraction processing unit 12 functions when the CPU reads the face extraction program into the RAM and executes it.

デジタルスチルカメラの撮像素子1は、ユーザがシャッタボタンを押下する前であっても常時所定周期で画像信号を出力しており、デジタル信号処理部6は各画像信号をデジタル信号処理している。顔抽出処理部12は、この画像信号を逐次取り込み、各入力画像に対して以下の処理を行う。   The imaging device 1 of the digital still camera always outputs an image signal at a predetermined cycle even before the user presses the shutter button, and the digital signal processing unit 6 performs digital signal processing on each image signal. The face extraction processing unit 12 sequentially captures this image signal and performs the following processing on each input image.

先ず、入力画像(処理対象画像)のサイズを取得(ステップS1)する。ユーザが例えば640×480画素数で撮影しようとしているのか、1280×960画素数で撮影しようとしているのかによって顔抽出処理に用いる入力画像のサイズが異なるカメラの場合には、このサイズ情報を取得する。入力画像のサイズが固定の場合にはこのステップS1は不要である。次に、測距センサ16によって計測した被写体までの距離情報を制御回路10から取得する(ステップS2)。   First, the size of the input image (processing target image) is acquired (step S1). For example, in the case of a camera in which the size of the input image used for the face extraction process is different depending on whether the user is shooting with 640 × 480 pixels or 1280 × 960 pixels, this size information is acquired. . When the size of the input image is fixed, this step S1 is not necessary. Next, distance information to the subject measured by the distance measuring sensor 16 is acquired from the control circuit 10 (step S2).

測距センサ16が搭載されていないカメラであっても、焦点レンズを前後にモータ駆動して被写体に合焦させる機構を持ったカメラであれば、そのモータ駆動のパルス数を計数し、この計数値から距離情報を求めることができる。この場合、パルス数計数値と距離との関係を関数で持っていても、あるいはテーブルデータとして持っていてもよい。   Even if the camera does not include the distance measuring sensor 16, if the camera has a mechanism for driving the focusing lens back and forth to focus on the subject, the number of pulses driven by the motor is counted. Distance information can be obtained from numerical values. In this case, the relationship between the pulse count value and the distance may be held as a function or as table data.

次のステップS3では、ズームレンズを使用しているのか否かを判定し、ズームレンズを使用している場合にはズーム位置情報を制御回路10から取得し(ステップS4)、次にレンズの焦点距離情報を制御回路10から取得する(ステップS5)。ステップS3でズームレンズを使用していないと判定した場合にはステップS4を飛び越してステップS5に進む。   In the next step S3, it is determined whether or not the zoom lens is used. If the zoom lens is used, the zoom position information is obtained from the control circuit 10 (step S4), and then the focus of the lens is obtained. Distance information is acquired from the control circuit 10 (step S5). If it is determined in step S3 that the zoom lens is not used, the process skips step S4 and proceeds to step S5.

以上の処理ステップによって取得した入力画像サイズ情報とレンズ焦点距離情報により、入力画像中における被写体である人の顔の大きさがどの程度の大きさになるかを決定できる。このため、次のステップS6では、顔の大きさに合わせたサーチウインドウの大きさの上限,下限の範囲を決定する。   Based on the input image size information and the lens focal length information acquired by the above processing steps, it is possible to determine the size of the face of the person who is the subject in the input image. Therefore, in the next step S6, the upper limit and lower limit ranges of the search window size according to the face size are determined.

サーチウインドウとは、図3に示す様に、テンプレートマッチング処理を行う処理画像21に対する顔画像の大きさ、即ち図4に示すテンプレート22の大きさと同一の大きさのウインドウ23である。このサーチウインドウ23によって切り出した画像とテンプレート22との正規化相互相関係数等を以下の処理ステップで求め、マッチング度合いを計算し、マッチング度合い即ち類似度が閾値に達しない場合には、サーチウインドウ23を処理画像21上で一定画素分たとえば1画素分だけスキャニング方向24にずらして次のマッチング処理用の画像を切り出す。   As shown in FIG. 3, the search window is a window 23 having the same size as the face image with respect to the processed image 21 to be subjected to the template matching process, that is, the size of the template 22 shown in FIG. The normalized cross-correlation coefficient between the image cut out by the search window 23 and the template 22 is obtained by the following processing steps, the matching degree is calculated, and when the matching degree, that is, the similarity does not reach the threshold value, the search window 23 is shifted in the scanning direction 24 by a certain amount of pixels on the processed image 21, for example, one pixel, and an image for the next matching processing is cut out.

ここで、処理画像21とは、入力画像をリサイズした画像である。例えば1280×960画素数の高精細な入力画像を処理画像としてマッチング処理を行うよりも、この入力画像を例えば200×150画素数にリサイズした画像を処理画像とし、テンプレート(勿論、テンプレート側の顔画像も高精細な顔画像ではなく、画素数の少ない例えば20×20画素数の顔画像を用いる。)マッチングを行う方が、個々人の差違を無視した一般的な「顔」の検出が容易となる。   Here, the processed image 21 is an image obtained by resizing the input image. For example, rather than performing a matching process using a high-definition input image of 1280 × 960 pixels as a processed image, an image obtained by resizing this input image to, for example, 200 × 150 pixels is used as a processed image, and a template (of course, a face on the template side) The image is not a high-definition face image, but a face image having a small number of pixels, for example, 20 × 20 pixels is used.) It is easier to detect a general “face” by ignoring individual differences. Become.

次のステップS7では、サーチウインドウのサイズが範囲内であるか否か、即ち、処理画像21内における顔の大きさの上限,下限の範囲内であるか否かを判定する。次に、サーチウインドウ23の大きさに一致する大きさのテンプレート22が存在するか否かを判定する(ステップS8)。存在する場合には該当するテンプレートを選択し(ステップS9)、存在しない場合にはテンプレートをリサイズしてサーチウインドウ23の大きさに合わせたテンプレートを生成し(ステップS10)、次のステップ11に進む。   In the next step S7, it is determined whether or not the size of the search window is within the range, that is, whether or not it is within the upper and lower limits of the face size in the processed image 21. Next, it is determined whether or not there is a template 22 having a size that matches the size of the search window 23 (step S8). If it exists, the corresponding template is selected (step S9). If it does not exist, the template is resized to generate a template that matches the size of the search window 23 (step S10), and the process proceeds to the next step 11. .

ステップS11では、スキャニング方向24に沿ってサーチウインドウ23をスキャニングさせながらテンプレートマッチング処理を行い、類似度が閾値α以上となった画像部分が存在するか否かを判定する。   In step S11, template matching processing is performed while scanning the search window 23 along the scanning direction 24, and it is determined whether or not there is an image portion having a similarity equal to or greater than the threshold value α.

類似度が閾値α以上となる画像部分が存在しない場合には、ステップS12に進み、サーチウインドウ23の大きさを図5に示す様に変化させ、次に、使用するサーチウインドウ23の大きさを決定してからステップS7に進む。以下、ステップS7→ … →ステップS11→ステップS12→ステップS7を繰り返す。   If there is no image portion whose similarity is equal to or greater than the threshold value α, the process proceeds to step S12, the size of the search window 23 is changed as shown in FIG. 5, and then the size of the search window 23 to be used is changed. After the determination, the process proceeds to step S7. Thereafter, step S7 →... → step S11 → step S12 → step S7 is repeated.

このように、本実施形態では、図5に示す様にサーチウインドウ23の大きさを上限値から下限値まで(あるいは下限値から上限値まで)変化させながら、図6に示す様にテンプレートの大きさも変化させ、テンプレートマッチング処理を繰り返す。   Thus, in the present embodiment, the size of the template is changed as shown in FIG. 6 while changing the size of the search window 23 from the upper limit value to the lower limit value (or from the lower limit value to the upper limit value) as shown in FIG. Also change the template matching process.

ステップS11で、閾値α以上の類似度を示す画像部分が検出されたときは、ステップS13の顔検出判定処理に進み、顔位置を特定し、その位置情報を制御回路10に出力してこの顔検出処理を終了する。   If an image portion showing a similarity equal to or greater than the threshold value α is detected in step S11, the process proceeds to face detection determination processing in step S13, the face position is specified, and the position information is output to the control circuit 10 to output this face. The detection process ends.

ステップS7→ … →ステップS11→ステップS12→ステップS7と繰り返されることでサーチウインドウ23の大きさが上限,下限の範囲外に外れた場合には、ステップS7における判定結果が否定(N)となる。この場合にはステップS13の顔検出判定処理に進み、「顔なし」と判定される。   If step S7 →... → step S11 → step S12 → step S7 is repeated and the size of the search window 23 falls outside the upper and lower limits, the determination result in step S7 is negative (N). . In this case, the process proceeds to the face detection determination process in step S13, and “no face” is determined.

尚、この実施形態は、処理速度重視の処理系としているため、入力画像(処理対象画像)中に類似度がα以上となる部分がステップS11で検出された場合には、即ち、1人の顔画像が抽出された場合には、直ちにステップS13に進んで顔画像の探索処理を終了する構成となっている。   In this embodiment, since the processing system emphasizes the processing speed, when a portion having a similarity of α or more in the input image (processing target image) is detected in step S11, that is, one person When a face image is extracted, the process immediately proceeds to step S13 to end the face image search process.

しかし、例えば、顔画像の検出精度重視の処理系にする場合には、全ての切出画像と全てのテンプレートとをマッチング処理して夫々の類似度を求め、最後に、最高の類似度を示す画像部分を顔画像として検出したり、あるいは、所定値以上の類似度の画像部分を全て顔画像として検出したりする。これは、この第1の実施形態に限らず、後で述べる第2,第3,第4,第5の実施形態でも同様である。   However, for example, in the case of a processing system emphasizing the detection accuracy of face images, matching processing is performed on all clipped images and all templates to obtain respective similarities, and finally the highest similarity is shown. An image part is detected as a face image, or all image parts having a similarity equal to or higher than a predetermined value are detected as face images. This is not limited to the first embodiment, and the same applies to the second, third, fourth, and fifth embodiments described later.

また、第1の実施形態では、図4に示す一種類のテンプレートを用いて顔画像の探索処理を行ったが、テンプレートの種類として複数種類用意し、各種類のテンプレートを用いて顔画像を検出する構成とするのが良い。例えば、普通の人の顔のテンプレートの他に、眼鏡を掛けた顔のテンプレート、年寄りの顔のテンプレート、乳児の顔のテンプレート等を用意しておくことで、精度の高い顔画像の抽出処理が可能となる。   In the first embodiment, the face image search process is performed using one type of template shown in FIG. 4. However, a plurality of types of templates are prepared, and a face image is detected using each type of template. It is good to have a configuration to do. For example, in addition to an ordinary person's face template, a face template with glasses, an elderly face template, an infant face template, etc. are prepared so that highly accurate face image extraction processing can be performed. It becomes possible.

この様に、本実施形態によれば、テンプレートマッチング処理で使用するテンプレートを複数種類用意し、各テンプレートを用いたマッチング処理を行うが、被写体までの距離情報に基づいて使用するテンプレートの上限,下限の大きさを限定するため、テンプレートマッチング処理回数を減らすことができ、顔の抽出処理を高精度,高速に行うことが可能となる。   As described above, according to the present embodiment, a plurality of types of templates used in the template matching process are prepared, and the matching process using each template is performed. The upper and lower limits of the template to be used based on the distance information to the subject. Therefore, the number of template matching processes can be reduced, and the face extraction process can be performed with high accuracy and high speed.

(第2の実施形態)
図7は、本発明の第2の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。この顔抽出処理プログラムを搭載するデジタルスチルカメラの構成は図1と同じである。
(Second Embodiment)
FIG. 7 is a flowchart showing the processing procedure of the face extraction program according to the second embodiment of the present invention. The configuration of a digital still camera equipped with this face extraction processing program is the same as that shown in FIG.

上述した第1の実施形態では、サーチウインドウ及びテンプレートの大きさを変化させながらテンプレートマッチング処理を行ったが、本実施形態では、サーチウインドウ及びテンプレートの大きさは固定し、処理画像21の大きさの方をリサイズしながらテンプレートマッチング処理を行う。   In the first embodiment described above, the template matching process is performed while changing the size of the search window and the template. However, in this embodiment, the sizes of the search window and the template are fixed and the size of the processed image 21 is changed. Perform template matching while resizing the.

ステップS1からステップS5までは第1の実施形態と同じである。ステップS5の次に、本実施形態では、処理画像21の大きさの上限,下限の範囲を決定する(ステップS16)。そして、次のステップS17では、処理画像21の大きさが顔の大きさの上限,下限の大きさに見合った範囲内であるか否かを判定する。   Steps S1 to S5 are the same as those in the first embodiment. Following step S5, in the present embodiment, the upper and lower limits of the size of the processed image 21 are determined (step S16). In the next step S17, it is determined whether or not the size of the processed image 21 is within a range corresponding to the upper and lower limits of the face size.

ステップS17の判定で、処理画像21の大きさが上限,下限の範囲内であると判定された場合には、次にステップS11に進み、テンプレートマッチング処理を行い、類似度が閾値α以上の画像部分が存在するか否かを判定する。類似度が閾値α以上の画像部分が検出できなかった場合はステップS11からステップS18に戻って処理画像21のリサイズを行い、テンプレートマッチング処理を繰り返す。閾値α以上の画像部分が検出された場合には、ステップS11からステップS13の顔検出判定処理に進んで顔位置を特定し、その位置情報を制御回路10に出力しこの顔検出処理を終了する。   If it is determined in step S17 that the size of the processed image 21 is within the upper and lower limits, the process proceeds to step S11, where template matching processing is performed, and an image whose similarity is greater than or equal to the threshold value α. Determine if the part exists. If an image part having a similarity equal to or greater than the threshold value α cannot be detected, the process returns from step S11 to step S18 to resize the processed image 21, and the template matching process is repeated. If an image portion equal to or greater than the threshold value α is detected, the process proceeds from step S11 to the face detection determination process in step S13, the face position is specified, the position information is output to the control circuit 10, and the face detection process is terminated. .

処理画像21のリサイズによって処理画像のサイズが上限値から下限値まで変化した後(あるいは下限値から上限値まで変化した後)は、ステップS17の判定結果が否定(N)となる。この場合にはステップS13に進み、「顔なし」と判定される。   After the size of the processed image changes from the upper limit value to the lower limit value (or after the change from the lower limit value to the upper limit value) due to resizing of the processed image 21, the determination result of step S17 becomes negative (N). In this case, the process proceeds to step S13, and “no face” is determined.

この様に、本実施形態では、入力画像に対する被写体の顔の大きさを被写体までの距離情報に基づいて限定するため、テンプレートマッチング処理回数を減らすことができ、高精度,高速に顔の抽出を行うことが可能となる。しかも、予め用意するテンプレートが1つで済むため、テンプレートの記憶容量を削減することもできる。   In this way, in this embodiment, the size of the subject's face relative to the input image is limited based on the distance information to the subject, so the number of template matching processes can be reduced, and face extraction can be performed with high accuracy and high speed. Can be done. Moreover, since only one template is prepared in advance, the storage capacity of the template can be reduced.

(第3の実施形態)
図8は、本発明の第3の実施形態に係るデジタルスチルカメラの説明図である。第1,第2の実施形態では、測距センサ16によって被写体までの距離情報を取得したが、本実施形態では、測距センサを用いずに被写体までの距離情報を取得し、テンプレートマッチング処理により顔の抽出を行う。
(Third embodiment)
FIG. 8 is an explanatory diagram of a digital still camera according to the third embodiment of the present invention. In the first and second embodiments, the distance information to the subject is acquired by the distance measuring sensor 16, but in this embodiment, the distance information to the subject is acquired without using the distance measuring sensor, and the template matching process is performed. Perform face extraction.

例えば、スタジオ内に設置したデジタルスチルカメラによって被写体の記念撮影を行う場合や、監視カメラの様にカメラ設置位置とドア入口等の監視対象場所とが固定されている場合、被写体25とデジタルスチルカメラ26との間の距離は既知である。また、デジタルスチルカメラ26の設置台27がモータ及びレールなどの移動機構で移動する場合には、その移動量を移動機構のモータタイミングベルトやロータリーエンコーダ等から取得することで、図1の制御回路10は被写体25までの距離を知ることができる。   For example, when taking a commemorative photo of a subject with a digital still camera installed in a studio, or when a camera installation position and a monitoring target location such as a door entrance are fixed like a surveillance camera, the subject 25 and a digital still camera The distance to 26 is known. Further, when the installation base 27 of the digital still camera 26 is moved by a moving mechanism such as a motor and a rail, the movement amount is obtained from a motor timing belt, a rotary encoder, or the like of the moving mechanism, whereby the control circuit of FIG. 10 can know the distance to the subject 25.

尚、本実施形態に係るデジタルスチルカメラは、図1の構成に対して測距センサが無い代わりに、移動機構から位置情報を取得する機構を備える。あるいは、ユーザが操作部11から入力した位置情報を用いる。   Note that the digital still camera according to the present embodiment includes a mechanism that acquires position information from a moving mechanism instead of having no distance measuring sensor in the configuration of FIG. Alternatively, position information input from the operation unit 11 by the user is used.

図9は、本実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。本実施形態の顔抽出プログラムでは、先ず、図8に示す基準点(カメラのディフォルト設置位置と被写体位置)間距離情報を取得し(ステップS20)、次に、第1実施形態のステップS1と同様に、入力画像のサイズを取得する。   FIG. 9 is a flowchart showing the processing procedure of the face extraction program according to the present embodiment. In the face extraction program of this embodiment, first, distance information between reference points (the default installation position of the camera and the subject position) shown in FIG. 8 is acquired (step S20), and then the same as step S1 of the first embodiment. In addition, the size of the input image is acquired.

次のステップS21では、被写体25に対して移動機構がどの程度移動したかの情報を制御回路10から取得し、ステップS3に進む。以下のステップS4〜ステップS13の処理は図2に示す第1の実施形態と同じであるため、その説明は省略する。   In the next step S21, information on how much the moving mechanism has moved with respect to the subject 25 is acquired from the control circuit 10, and the process proceeds to step S3. Since the process of the following step S4-step S13 is the same as 1st Embodiment shown in FIG. 2, the description is abbreviate | omitted.

この様に、本実施形態でも、入力画像に対する被写体の顔の大きさを被写体までの距離情報に基づいて限定するため、テンプレートマッチング処理回数を減らすことができ、高精度,高速に顔の抽出を行うことが可能となる。   As described above, also in this embodiment, the size of the face of the subject with respect to the input image is limited based on the distance information to the subject, so the number of template matching processes can be reduced, and face extraction can be performed with high accuracy and high speed. Can be done.

(第4の実施形態)
図10は、本発明の第4の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。本実施形態も、図8で説明した様に監視カメラ等に適用するプログラムであり、先ず、図8に示す基準点間距離情報を取得し(ステップS20)、次に第2実施形態のステップS1と同様に、入力画像のサイズを取得する。
(Fourth embodiment)
FIG. 10 is a flowchart showing the processing procedure of the face extraction program according to the fourth embodiment of the present invention. This embodiment is also a program applied to a surveillance camera or the like as described with reference to FIG. 8. First, distance information between reference points shown in FIG. 8 is acquired (step S20), and then step S1 of the second embodiment. As with, the size of the input image is acquired.

次のステップS21では、被写体25に対して移動機構がどの程度移動したかの情報を制御回路10から取得し、ステップS3に進む。以下のステップS4〜ステップS13の処理は図7に示す第2の実施形態と同じであるため、その説明は省略する。   In the next step S21, information on how much the moving mechanism has moved with respect to the subject 25 is acquired from the control circuit 10, and the process proceeds to step S3. Since the processing of the following steps S4 to S13 is the same as that of the second embodiment shown in FIG. 7, the description thereof is omitted.

この様に、本実施形態でも、入力画像に対する被写体の顔の大きさを被写体までの距離情報に基づいて限定するため、テンプレートマッチング処理回数を減らすことができ、高精度,高速に顔の抽出を行うことが可能となる。しかも、予め用意するテンプレートが1つで済むため、テンプレートの記憶容量を削減することもできる。   As described above, also in this embodiment, the size of the face of the subject with respect to the input image is limited based on the distance information to the subject, so the number of template matching processes can be reduced, and face extraction can be performed with high accuracy and high speed. Can be done. Moreover, since only one template is prepared in advance, the storage capacity of the template can be reduced.

(第5の実施形態)
上述した実施形態では、特徴部分画像の照合データとして、テンプレートの画像データを用いたが、テンプレートの画像データを用いなくても、サーチウインドウによる切出画像と比較照合することができる。
(Fifth embodiment)
In the above-described embodiment, the template image data is used as the matching data of the feature portion image. However, it is possible to perform comparison and matching with the clipped image by the search window without using the template image data.

例えば、図4のテンプレート画像の各画素の濃度値を各画素位置座標に対応付けて数値化した照合データを用意し、この照合データを用いて比較照合を行うことができる。あるいは、濃度の高い画素位置(図4の例では両目の位置)の相関関係を照合データとして抽出し、この照合データを用いて比較照合を行うことも可能である。   For example, collation data in which the density value of each pixel of the template image of FIG. 4 is digitized in association with each pixel position coordinate is prepared, and comparison collation can be performed using this collation data. Alternatively, it is possible to extract a correlation between pixel positions with high density (positions of both eyes in the example of FIG. 4) as collation data, and perform comparison collation using the collation data.

本実施形態では、撮像装置で撮像した実際の画像に対して、例えばニューラルネットワークや遺伝的アルゴリズム等の機械学習アルゴリズムを使用して、事前に特徴部分画像、例えば顔画像の特徴をコンピュータに学習させ、この学習させた結果を照合データとして撮像装置のメモリに記憶させておく。   In this embodiment, a machine learning algorithm such as a neural network or a genetic algorithm is used for an actual image captured by an imaging device, and a feature partial image, for example, a facial image feature is learned in advance by a computer. The learned result is stored in the memory of the imaging apparatus as collation data.

図11は、事前学習の結果得られた照合データの構成例を示す図である。サーチウインドウ内の画素位置毎に、画素値v_iとスコアp_iとが学習により決定されている。画素値とは、例えば画素濃度値等の数値データである。また、スコアとは、評価値である。   FIG. 11 is a diagram illustrating a configuration example of collation data obtained as a result of prior learning. The pixel value v_i and the score p_i are determined by learning for each pixel position in the search window. The pixel value is numerical data such as a pixel density value. The score is an evaluation value.

テンプレート画像を用いた場合の評価値は「類似度」であり、テンプレート画像全体と比較した結果の評価値であったが、本実施形態の照合データの場合には、そのサーチウインドウの大きさに対して1画素1画素毎に評価値が定められている。   When the template image is used, the evaluation value is “similarity”, which is an evaluation value as a result of comparison with the entire template image. In the case of the collation data of the present embodiment, the size of the search window is set. On the other hand, an evaluation value is determined for each pixel.

例えば、ある画素位置の画素値が“45”の場合にはスコアが“9”であり、顔らしさが高いと設定されており、別の画素位置の画素値が“10”の場合にはスコアが“−4”であり、顔らしくないと設定されている。   For example, when the pixel value at a certain pixel position is “45”, the score is “9”, the faceness is set to be high, and when the pixel value at another pixel position is “10”, the score is set. Is “−4”, and it is set not to look like a face.

そして、比較照合の結果として各画素毎の評価値の累積値を求め、この累積値により、顔画像であるか否かを判定することで、顔画像の検出ができる。この数値データを用いた照合データでは、サーチウインドウの大きさ毎に照合データを用意しておき、各照合データによって顔画像を検出するのが好ましい。   Then, as a result of the comparison and collation, a cumulative value of evaluation values for each pixel is obtained, and by determining whether or not the face image is based on the cumulative value, the face image can be detected. In the collation data using the numerical data, it is preferable to prepare collation data for each size of the search window and detect a face image by each collation data.

あるサーチウインドウが選択され、そのサーチウインドウの大きさに対する照合データが用意されていない場合には、テンプレートの場合における図2のステップS10の処理に相当する処理を行って、そのサーチウインドウの大きさに対する照合データを作成することでもよい。例えば、そのサーチウインドウの大きさと前後する大きさの複数の照合データを用い、画素値を補間演算して決定する。   When a certain search window is selected and collation data for the size of the search window is not prepared, a process corresponding to the process of step S10 in FIG. It is also possible to create collation data for. For example, the pixel value is determined by interpolation calculation using a plurality of pieces of collation data having a size around that of the search window.

テンプレートは特徴部分画像から特徴量を画像として抽出したデータであり、数値化した照合データは、特徴部分画像から特徴量を数値データとして抽出したデータである。そこで、テンプレートや数値化データとして照合データを用意するのではなく、特徴部分画像から特徴量を抽出するルールを文言として記述した照合データを用意して、処理対象画像からサーチウインドウで切り出した画像との比較処理を行う構成とすることも可能である。この場合、制御回路の演算処理装置はルールを一々解釈しなければならないが、顔画像の大きさの範囲が距離情報によって制限されているため、高速な処理が可能である。   The template is data obtained by extracting the feature quantity from the feature partial image as an image. The digitized collation data is data obtained by extracting the feature quantity from the feature partial image as numeric data. Therefore, instead of preparing collation data as a template or digitized data, prepare collation data in which rules for extracting feature amounts from feature partial images are described as words, and an image cut out from a processing target image using a search window It is also possible to adopt a configuration for performing the comparison process. In this case, the arithmetic processing unit of the control circuit must interpret the rules one by one, but since the range of the size of the face image is limited by the distance information, high-speed processing is possible.

尚、上述した各実施形態では、デジタルスチルカメラを例に説明したが、携帯電話機等に搭載したデジタルカメラや動画撮影を行うデジタルビデオカメラ等の他のデジタルカメラにも本発明を適用可能である。また、被写体までの距離情報は、測距センサの計測値や既知の値を用いる場合に限られず、その距離情報取得方法は如何なる方法でもよく、更に、抽出対象は顔に限らず、他の特徴部分でも本発明を適用可能である。   In each of the above-described embodiments, the digital still camera has been described as an example. However, the present invention can also be applied to other digital cameras such as a digital camera mounted on a mobile phone or a digital video camera that performs moving image shooting. . In addition, the distance information to the subject is not limited to the case of using a measurement value or a known value of a distance measuring sensor, the distance information acquisition method may be any method, and the extraction target is not limited to the face, but other features. The present invention can also be applied to portions.

また、上述した各実施形態の特徴抽出プログラムは、デジタルカメラに搭載する場合に限られず、例えば写真のプリンタや画像処理装置に搭載することで、被写体の特徴部分を高精度且つ高速に抽出することが可能となる。この場合、テンプレートの大きさ或いは処理画像の大きさを特徴部分画像の上限,下限の範囲に限定するために距離情報やズーム情報が必要となるが、これらの情報は、入力画像を撮影したカメラが撮像画像データにタグ情報として付加したものを用いる。   The feature extraction program of each embodiment described above is not limited to being installed in a digital camera. For example, the feature extraction program can be installed in a photographic printer or image processing apparatus to extract a feature portion of a subject with high accuracy and high speed. Is possible. In this case, distance information and zoom information are required to limit the size of the template or the size of the processed image to the upper and lower limits of the feature partial image. Are used as tag information added to captured image data.

尚、上述した実施形態では、測距センサによって求めた被写体までの距離情報や、撮影レンズを被写体に合焦させるときのモータ駆動パルス数等から画像中に含まれる特徴部分の大きさの範囲を限定したが、精度良く特徴部分の大きさの範囲が分からない場合でも、おおよその範囲が限定できれば本発明を適用可能である。   In the above-described embodiment, the range of the size of the characteristic portion included in the image is determined based on the distance information to the subject obtained by the distance measuring sensor, the number of motor driving pulses when the photographing lens is focused on the subject, and the like. Although limited, the present invention can be applied if the approximate range can be limited even when the size range of the feature portion is not known with high accuracy.

例えば、撮影レンズの焦点距離から、被写体までの距離を大まかに限定でき、また、人物撮影モード,風景撮影モード,マクロ撮影モード等の撮影モードのいずれで撮影が行われたかが分かれば、被写体までの距離を推定することができ、特徴部分の大きさを大まかに限定して特徴部分抽出処理の高速化を図ることができる。   For example, the distance to the subject can be roughly limited from the focal length of the taking lens, and if the shooting mode such as the portrait shooting mode, the landscape shooting mode, or the macro shooting mode is known, the distance to the subject can be determined. The distance can be estimated, and the feature portion extraction process can be speeded up by roughly limiting the size of the feature portion.

更にまた、これらの情報を組み合わせ、例えば、撮影モードと撮影レンズの焦点距離とから被写体までのおおよその距離を推定したり、撮影モードとモータ駆動パルス数とを組み合わせて判断することでもよい。   Furthermore, these information may be combined, for example, the approximate distance to the subject may be estimated from the shooting mode and the focal length of the shooting lens, or the shooting mode and the number of motor driving pulses may be combined for determination.

本発明は、顔などの特徴部分画像を入力画像中から高速に抽出できるため、例えば、明るさ補正、色補正、輪郭補正、階調補正、欠陥補正等を、画像全体の補正に限らず、画像内の局所的な領域に対する補正も高速に行うことができ、画像処理装置や撮像装置に搭載すると好適である。   Since the present invention can extract a feature part image such as a face from an input image at high speed, for example, brightness correction, color correction, contour correction, gradation correction, defect correction, etc. are not limited to correction of the entire image, Correction for a local region in an image can also be performed at high speed, and it is preferable to be mounted in an image processing apparatus or an imaging apparatus.

本発明の第1の実施形態に係るデジタルスチルカメラの構成図である。1 is a configuration diagram of a digital still camera according to a first embodiment of the present invention. 図1に示すデジタルスチルカメラに搭載された顔抽出プログラムの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the face extraction program mounted in the digital still camera shown in FIG. サーチウインドウによるスキャニングの説明図である。It is explanatory drawing of the scanning by a search window. 顔のテンプレートの一例を示す図である。It is a figure which shows an example of the template of a face. サーチウインドウの大きさを変化させる例の説明図である。It is explanatory drawing of the example which changes the magnitude | size of a search window. テンプレートの大きさを変化させる例の説明図である。It is explanatory drawing of the example which changes the magnitude | size of a template. 本発明の第2の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the face extraction program which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係るデジタルスチルカメラの設置例を示す図である。It is a figure which shows the example of installation of the digital still camera which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the face extraction program which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the face extraction program which concerns on the 4th Embodiment of this invention. 本発明の第5の実施形態に係る照合データの説明図である。It is explanatory drawing of the collation data based on the 5th Embodiment of this invention.

符号の説明Explanation of symbols

1 撮像素子
2 レンズ
3 絞り
6 デジタル信号処理部
10 制御回路
12 顔抽出処理部
16 測距センサ
21 処理画像
22 顔のテンプレート
23 サーチウインドウ
24 スキャニング方向
DESCRIPTION OF SYMBOLS 1 Image sensor 2 Lens 3 Aperture 6 Digital signal processing part 10 Control circuit 12 Face extraction processing part 16 Distance sensor 21 Processed image 22 Face template 23 Search window 24 Scanning direction

Claims (12)

処理対象画像から所要の大きさの画像を順次切り出し、各切出画像と特徴部分画像の照合データとを比較して前記処理対象画像中に前記特徴部分画像が存在するか否かを検出する画像の特徴部分抽出方法であって、前記処理対象画像の大きさに対する前記特徴部分画像の大きさの範囲を該処理対象画像が撮像されたときの被写体までの距離情報に基づいて限定し前記照合データと比較する前記切出画像の大きさを制限することを特徴とする画像の特徴部分抽出方法。   An image for detecting whether or not the feature portion image exists in the processing target image by sequentially cutting out images of a required size from the processing target image and comparing each cut image with the matching data of the feature portion image The feature portion extraction method according to claim 1, wherein the range of the size of the feature portion image with respect to the size of the processing target image is limited based on distance information to a subject when the processing target image is imaged. A method for extracting a feature portion of an image, wherein the size of the cut image to be compared is limited. 前記限定は、前記被写体までの距離情報の他に撮影レンズの焦点距離情報を用いて行うことを特徴とする請求項1に記載の画像の特徴部分抽出方法。   2. The image feature portion extraction method according to claim 1, wherein the limitation is performed using focal length information of a photographing lens in addition to distance information to the subject. 前記比較は、前記処理対象画像をリサイズしたリサイズ画像を用いて行うことを特徴とする請求項1または請求項2に記載の画像の特徴部分抽出方法。   The image feature portion extraction method according to claim 1, wherein the comparison is performed using a resized image obtained by resizing the processing target image. 前記比較は、決まった大きさの特徴部分画像に対応する前記照合データを用い、前記リサイズ画像の大きさを変化させて行うことを特徴とする請求項3に記載の画像の特徴部分抽出方法。   4. The image feature portion extraction method according to claim 3, wherein the comparison is performed by changing the size of the resized image using the matching data corresponding to a feature portion image having a predetermined size. 前記比較は、前記リサイズ画像の大きさを固定し前記特徴部分画像の大きさを変化させた前記照合データを用いて行うことを特徴とする請求項3に記載の画像の特徴部分抽出方法。   The image feature portion extraction method according to claim 3, wherein the comparison is performed using the collation data in which a size of the resized image is fixed and a size of the feature portion image is changed. 前記照合データは、前記特徴部分画像のテンプレート画像データであることを特徴とする請求項1乃至請求項5のいずれかに記載の画像の特徴部分抽出方法。   6. The image feature portion extraction method according to claim 1, wherein the collation data is template image data of the feature portion image. 前記照合データは、前記特徴部分画像の特徴量を数値化したデータであることを特徴とする請求項1乃至請求項5のいずれかに記載の画像の特徴部分抽出方法。   6. The image feature portion extraction method according to claim 1, wherein the collation data is data obtained by digitizing a feature amount of the feature portion image. 前記照合データは、前記特徴部分画像の特徴量を抽出するルールを記述したデータで構成されることを特徴とする請求項1乃至請求項5のいずれかに記載の画像の特徴部分抽出方法。   6. The image feature portion extraction method according to claim 1, wherein the collation data includes data describing a rule for extracting a feature amount of the feature portion image. 請求項1乃至請求項8のいずれかに記載の画像の特徴部分抽出方法を実行する特徴部分抽出プログラムであって、前記処理対象画像の大きさに対する前記特徴部分画像の大きさの範囲を該処理対象画像が撮像されたときの被写体までの距離情報に基づいて限定し前記切出画像の大きさを制限するステップを備えることを特徴とする特徴部分抽出プログラム。   9. A feature portion extraction program for executing the image feature portion extraction method according to claim 1, wherein a range of the size of the feature portion image with respect to the size of the processing target image is determined. A feature portion extraction program comprising a step of limiting based on distance information to a subject when a target image is captured and limiting the size of the cutout image. 請求項9に記載の特徴部分抽出プログラムを搭載し、該特徴部分抽出プログラムが前記ステップを実行するときに使用する前記距離情報は、前記処理対象画像にタグ情報として付加されている距離情報を用いることを特徴とする画像処理装置。   10. The distance information added as tag information to the processing target image is used as the distance information that is mounted when the characteristic portion extraction program according to claim 9 is mounted and the characteristic portion extraction program executes the step. An image processing apparatus. 請求項9に記載の特徴部分抽出プログラムと、該特徴部分抽出プログラムの前記ステップの実行時に必要となる前記距離情報を求める手段とを備えることを特徴とする撮像装置。   An image pickup apparatus comprising: the feature portion extraction program according to claim 9; and means for obtaining the distance information necessary when executing the step of the feature portion extraction program. 前記手段は、測距センサ、撮影レンズを被写体に合焦させるときのモータ駆動パルス数の計数手段、撮影レンズの焦点距離情報を求める手段、人物撮影モード,風景撮影モード,マクロ撮影モード等の撮影モードから被写体までの距離を推定する手段、撮影レンズの焦点距離から被写体までの距離を推定する手段のいずれかを含むことを特徴とする請求項11に記載の撮像装置。   The means includes a distance measuring sensor, a means for counting the number of motor driving pulses when the photographing lens is focused on the subject, a means for obtaining focal length information of the photographing lens, a photographing mode such as a person photographing mode, a landscape photographing mode, and a macro photographing mode. 12. The image pickup apparatus according to claim 11, further comprising: means for estimating a distance from the mode to the subject, or means for estimating a distance from the focal length of the photographing lens to the subject.
JP2004076073A 2003-04-14 2004-03-17 Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus Expired - Fee Related JP4338560B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004076073A JP4338560B2 (en) 2003-04-14 2004-03-17 Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus
US10/822,003 US20040228505A1 (en) 2003-04-14 2004-04-12 Image characteristic portion extraction method, computer readable medium, and data collection and processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003109178 2003-04-14
JP2004076073A JP4338560B2 (en) 2003-04-14 2004-03-17 Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2004334836A true JP2004334836A (en) 2004-11-25
JP4338560B2 JP4338560B2 (en) 2009-10-07

Family

ID=33513131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004076073A Expired - Fee Related JP4338560B2 (en) 2003-04-14 2004-03-17 Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4338560B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157429A (en) * 2004-11-29 2006-06-15 Fuji Photo Film Co Ltd Moving image recorder and moving image printer
JP2007013774A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Apparatus for searching object
JP2007047975A (en) * 2005-08-09 2007-02-22 Fujifilm Corp Method and device for detecting multiple objects of digital image, and program
JP2007047965A (en) * 2005-08-09 2007-02-22 Fujifilm Corp Method and device for detecting object of digital image, and program
JP2007104235A (en) * 2005-10-04 2007-04-19 Sony Corp Imaging apparatus, control method thereof, and computer program
KR100737974B1 (en) 2005-07-15 2007-07-13 황후 Image extraction combination system and the method, And the image search method which uses it
JP2007265149A (en) * 2006-03-29 2007-10-11 Sony Corp Image processor, image processing method and imaging device
JP2007265150A (en) * 2006-03-29 2007-10-11 Sony Corp Image processor, image processing method and imaging device
JP2007265390A (en) * 2006-02-28 2007-10-11 Sanyo Electric Co Ltd Apparatus for detecting object
JP2008109315A (en) * 2006-10-24 2008-05-08 Canon Inc Imaging device, control method therefor, program, and storage medium
JP2008236276A (en) * 2007-03-20 2008-10-02 Hitachi Ltd Camera apparatus
JP2008288911A (en) * 2007-05-18 2008-11-27 Casio Comput Co Ltd Imaging apparatus, face area detection program, and face area detection method
JP2008306765A (en) * 2008-09-03 2008-12-18 Canon Inc Image pickup device
CN102004918A (en) * 2009-09-02 2011-04-06 索尼公司 Image processing apparatus, image processing method, program, and electronic device
US8005271B2 (en) 2007-06-18 2011-08-23 Fujifilm Corporation Face detection method and digital camera
US8019129B2 (en) 2007-05-18 2011-09-13 Casio Computer Co., Ltd. Image pickup device, face detection method, and computer-readable recording medium
US8085997B2 (en) 2007-11-20 2011-12-27 Fujifilm Corporation Imaging apparatus and imaging method
US8213720B2 (en) 2007-09-28 2012-07-03 Fujifilm Corporation System and method for determining chin position in a digital image
EP2482248A2 (en) 2011-02-01 2012-08-01 Fujifilm Corporation Image processing device, three-dimensional image printing system, and image processing method and program
US8363909B2 (en) 2007-03-20 2013-01-29 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
US8654195B2 (en) 2009-11-13 2014-02-18 Fujifilm Corporation Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
JP2014134856A (en) * 2013-01-08 2014-07-24 Nec Corp Subject identification device, subject identification method, and subject identification program
JP2014142832A (en) * 2013-01-24 2014-08-07 Canon Inc Image processing apparatus, control method of image processing apparatus, and program
JP2021009493A (en) * 2019-06-28 2021-01-28 キヤノン株式会社 Image processing device, control method of image processing device, and program

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157429A (en) * 2004-11-29 2006-06-15 Fuji Photo Film Co Ltd Moving image recorder and moving image printer
US7734141B2 (en) 2004-11-29 2010-06-08 Fujifilm Corporation Video recording apparatus and video printing apparatus
JP2007013774A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Apparatus for searching object
JP4723934B2 (en) * 2005-07-01 2011-07-13 株式会社豊田中央研究所 Object search device
KR100737974B1 (en) 2005-07-15 2007-07-13 황후 Image extraction combination system and the method, And the image search method which uses it
JP2007047975A (en) * 2005-08-09 2007-02-22 Fujifilm Corp Method and device for detecting multiple objects of digital image, and program
JP2007047965A (en) * 2005-08-09 2007-02-22 Fujifilm Corp Method and device for detecting object of digital image, and program
JP4708909B2 (en) * 2005-08-09 2011-06-22 富士フイルム株式会社 Method, apparatus and program for detecting object of digital image
JP4588575B2 (en) * 2005-08-09 2010-12-01 富士フイルム株式会社 Method, apparatus and program for detecting multiple objects in digital image
JP4730044B2 (en) * 2005-10-04 2011-07-20 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2007104235A (en) * 2005-10-04 2007-04-19 Sony Corp Imaging apparatus, control method thereof, and computer program
JP4540661B2 (en) * 2006-02-28 2010-09-08 三洋電機株式会社 Object detection device
JP2007265390A (en) * 2006-02-28 2007-10-11 Sanyo Electric Co Ltd Apparatus for detecting object
US7974441B2 (en) 2006-02-28 2011-07-05 Sanyo Electric Co., Ltd. Object detection apparatus for detecting a specific object in an input image
JP4539597B2 (en) * 2006-03-29 2010-09-08 ソニー株式会社 Image processing apparatus, image processing method, and imaging apparatus
US8126219B2 (en) 2006-03-29 2012-02-28 Sony Corporation Image processing apparatus, image processing method, and imaging apparatus
JP2007265150A (en) * 2006-03-29 2007-10-11 Sony Corp Image processor, image processing method and imaging device
JP2007265149A (en) * 2006-03-29 2007-10-11 Sony Corp Image processor, image processing method and imaging device
JP2008109315A (en) * 2006-10-24 2008-05-08 Canon Inc Imaging device, control method therefor, program, and storage medium
US8363909B2 (en) 2007-03-20 2013-01-29 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
JP2008236276A (en) * 2007-03-20 2008-10-02 Hitachi Ltd Camera apparatus
US8111881B2 (en) 2007-05-18 2012-02-07 Casio Computer Co., Ltd. Image pickup device, face detection method, and computer-readable recording medium
US8019129B2 (en) 2007-05-18 2011-09-13 Casio Computer Co., Ltd. Image pickup device, face detection method, and computer-readable recording medium
US8077216B2 (en) 2007-05-18 2011-12-13 Casio Computer Co., Ltd. Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
JP2008288911A (en) * 2007-05-18 2008-11-27 Casio Comput Co Ltd Imaging apparatus, face area detection program, and face area detection method
US8005271B2 (en) 2007-06-18 2011-08-23 Fujifilm Corporation Face detection method and digital camera
US8340369B2 (en) 2007-06-18 2012-12-25 Fujifilm Corporation Face detection method and digital camera
US8213720B2 (en) 2007-09-28 2012-07-03 Fujifilm Corporation System and method for determining chin position in a digital image
US8085997B2 (en) 2007-11-20 2011-12-27 Fujifilm Corporation Imaging apparatus and imaging method
JP2008306765A (en) * 2008-09-03 2008-12-18 Canon Inc Image pickup device
JP4678885B2 (en) * 2008-09-03 2011-04-27 キヤノン株式会社 Imaging device
CN102004918A (en) * 2009-09-02 2011-04-06 索尼公司 Image processing apparatus, image processing method, program, and electronic device
US8654195B2 (en) 2009-11-13 2014-02-18 Fujifilm Corporation Distance measuring apparatus, distance measuring method, distance measuring program, distance measuring system, and image pickup apparatus
EP2482248A2 (en) 2011-02-01 2012-08-01 Fujifilm Corporation Image processing device, three-dimensional image printing system, and image processing method and program
US8891853B2 (en) 2011-02-01 2014-11-18 Fujifilm Corporation Image processing device, three-dimensional image printing system, and image processing method and program
JP2014134856A (en) * 2013-01-08 2014-07-24 Nec Corp Subject identification device, subject identification method, and subject identification program
JP2014142832A (en) * 2013-01-24 2014-08-07 Canon Inc Image processing apparatus, control method of image processing apparatus, and program
JP2021009493A (en) * 2019-06-28 2021-01-28 キヤノン株式会社 Image processing device, control method of image processing device, and program
JP7386630B2 (en) 2019-06-28 2023-11-27 キヤノン株式会社 Image processing device, control method and program for the image processing device

Also Published As

Publication number Publication date
JP4338560B2 (en) 2009-10-07

Similar Documents

Publication Publication Date Title
JP4338560B2 (en) Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus
US20040228505A1 (en) Image characteristic portion extraction method, computer readable medium, and data collection and processing device
JP4702418B2 (en) Imaging apparatus, image region existence determination method and program
US8077216B2 (en) Image pickup apparatus with a human face detecting function, method and program product for detecting a human face
EP2264997A2 (en) A method of detecting and correcting an eye defect within an acquired digital image
US20090002509A1 (en) Digital camera and method of controlling same
JP4732299B2 (en) Method for detecting specific subject image and digital camera
JP2010045770A (en) Image processor and image processing method
JP2008299784A (en) Object determination device and program therefor
JP2009123081A (en) Face detection method and photographing apparatus
KR20090095649A (en) Imaging apparatus
JP2006311108A (en) Image processor, image processing method, image processing program and camera
JP4349380B2 (en) IMAGING DEVICE, METHOD FOR OBTAINING IMAGE
JP6594666B2 (en) Imaging auxiliary device, imaging device, and imaging auxiliary method
JP4149301B2 (en) Method for extracting feature parts of continuous image, program thereof, and digital camera
JP2007258923A (en) Image processing apparatus, image processing method, image processing program
US20090244313A1 (en) Compound eye photographing apparatus, control method therefor, and program
JP4254467B2 (en) Digital camera
JP2006253806A (en) Photographing apparatus and method
JP4306399B2 (en) Digital camera
JP2007249526A (en) Imaging device, and face area extraction method
JP2009089083A (en) Age estimation photographing device and age estimation photographing method
JP2008098739A (en) Imaging apparatus, image processing method used for imaging apparatus and program making computer execute same image processing method
JP4305119B2 (en) Digital camera
US20230017607A1 (en) Imaging apparatus

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060613

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061124

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071108

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090610

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090630

R150 Certificate of patent or registration of utility model

Ref document number: 4338560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130710

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees