JP2008187677A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2008187677A
JP2008187677A JP2007021887A JP2007021887A JP2008187677A JP 2008187677 A JP2008187677 A JP 2008187677A JP 2007021887 A JP2007021887 A JP 2007021887A JP 2007021887 A JP2007021887 A JP 2007021887A JP 2008187677 A JP2008187677 A JP 2008187677A
Authority
JP
Japan
Prior art keywords
face
feature point
face image
person
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007021887A
Other languages
Japanese (ja)
Inventor
Tomonori Masuda
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007021887A priority Critical patent/JP2008187677A/en
Publication of JP2008187677A publication Critical patent/JP2008187677A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a poster or the like from being recognized as a person in the case where a subject including the poster or the like, other than a person, is photographed by a digital camera. <P>SOLUTION: The digital camera comprises: an imaging device including a photoelectric transducer; an image data generating means for generating image data from an output signal of the imaging device; a face image extracting means for extracting a face image including a face from the image data generated by the image data generating means; a feature point extracting means for extracting feature points of the face included in the face image from the face image extracted by the face image extracting means; a feature point change detecting means for detecting a change with the passage of time in the feature points of the face extracted by the feature point extracting means; and a person determining means for determining whether the face included in the face image extracted by the face image extracting means is that of a person or not, based on the change with the passage of time in the feature points of the face detected by the feature point change detecting means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、デジタルカメラに係り、特に、顔認識機能を備えたデジタルカメラに関する。   The present invention relates to a digital camera, and more particularly to a digital camera having a face recognition function.

従来、デジタルカメラでは、撮影画像から顔を含む画像(顔画像ともいう)を抽出する処理が行われている(例えば特許文献1参照)。この特許文献1記載のデジタルカメラでは、顔認識用の色データを予め保持しておき、撮影画像の全領域の色データと前記顔認識用の色データとを比較し、一致する部分を人物の顔として認識し、この人物の顔を含む領域を切り出す。   Conventionally, in a digital camera, a process of extracting an image including a face (also referred to as a face image) from a captured image has been performed (see, for example, Patent Document 1). In the digital camera described in Patent Document 1, color data for face recognition is stored in advance, the color data of the entire area of the photographed image is compared with the color data for face recognition, and a matching portion is detected by the person. Recognize as a face and cut out an area including the face of this person.

この切り出された顔画像は各種の用途に用いられる。例えば、顔を含む顔画像と形状データベース部内のデータとの一致度を算出し、この一致度と形状データを基に特徴点を抽出することが提案されている(特許文献2参照)。この抽出した特徴点は各種の用途に用いられる。例えば、運転者の目の特徴点を抽出することにより運転者の状態を検知することが提案されている(特許文献3参照)。   The cut face image is used for various purposes. For example, it has been proposed to calculate the degree of coincidence between a face image including a face and data in the shape database unit, and extract feature points based on the degree of coincidence and shape data (see Patent Document 2). The extracted feature points are used for various purposes. For example, it has been proposed to detect the state of the driver by extracting feature points of the driver's eyes (see Patent Document 3).

その他、本願に関連すると思われるものとして特許文献4、5等がある。
特開平10−334213号公報 特開平05−197793号公報 特開2005−18651号公報 特開平05−68915号公報 特開平05−344504号公報
In addition, Patent Documents 4 and 5 and the like are considered to be related to the present application.
JP-A-10-334213 JP 05-197793 A JP 2005-18651 A JP 05-68715 A JP 05-344504 A

しかしながら、特許文献1等記載のデジタルカメラでは、人物以外のポスター等を撮影した場合でも、そのポスター等を人物の顔と認識してしまい、そのポスター等を含む領域を切り出してしまい、その後の処理を適切に行えないという問題がある。   However, in the digital camera described in Patent Document 1 or the like, even when a poster other than a person is photographed, the poster is recognized as a person's face, and an area including the poster is cut out. There is a problem that cannot be performed properly.

本発明は、このような事情に鑑みてなされたものであり、デジタルカメラで人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to prevent a poster or the like from being recognized as a person when a subject including a poster or the like other than a person is photographed with a digital camera. And

本発明は上記課題を解決するためになされたものであり、請求項1に記載の発明は、光電変換素子を含む撮像素子と、前記撮像素子の出力信号から画像データを生成する画像データ生成手段と、前記画像データ生成手段により生成された画像データから顔を含む顔画像を抽出する顔画像抽出手段と、前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検出手段と、前記特徴点変化検出手段により検出された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定する人物判定手段と、を備える。   The present invention has been made to solve the above problems, and the invention according to claim 1 is an image sensor including a photoelectric conversion element, and image data generating means for generating image data from an output signal of the image sensor. A face image extracting means for extracting a face image including a face from the image data generated by the image data generating means, and a feature point of the face included in the face image from the face image extracted by the face image extracting means A feature point extracting unit for extracting the feature point, a feature point change detecting unit for detecting a temporal change in the feature point of the face extracted by the feature point extracting unit, and a face feature detected by the feature point change detecting unit Person determination means for determining whether or not the face included in the face image extracted by the face image extraction means is a person based on a change in point over time.

請求項1に記載の発明によれば、顔画像に含まれる顔の特徴点を抽出し、その顔の特徴点の経時的変化を検出する。   According to the first aspect of the present invention, the facial feature points included in the facial image are extracted, and the temporal change in the facial feature points is detected.

顔画像に含まれる顔が人物であれば、抽出された顔の特徴点が経時的に変化する(例えば特徴点が目(口等も同様)である場合には、目の瞬き等により特徴点が経時的に変化する)。一方、顔画像に含まれる顔が人物でなければ(例えばポスター、絵画、フィギュアであれば)、抽出された顔の特徴点が経時的に変化しない。   If the face included in the face image is a person, the extracted feature points of the face change over time (for example, if the feature points are eyes (the same applies to the mouth, etc.) Changes over time). On the other hand, if the face included in the face image is not a person (for example, if it is a poster, painting, figure), the extracted facial feature points do not change over time.

したがって、抽出された顔の特徴点の経時的な変化に基づけば、顔画像に含まれる顔が人物か否かを判定することが可能となる。すなわち、デジタルカメラで人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。   Therefore, it is possible to determine whether or not the face included in the face image is a person based on the temporal change of the extracted facial feature points. That is, when a subject including a poster other than a person is photographed with a digital camera, the poster or the like can be prevented from being recognized as a person.

請求項2に記載の発明は、請求項1に記載の発明において、前記特徴点抽出手段は、前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の輪郭の特徴点を抽出し、前記特徴点変化検出手段は、前記特徴点抽出手段により抽出された前記顔の輪郭の経時的な特徴点の変化に基づいて、前記特徴点抽出手段により抽出された前記顔の特徴点の手ぶれ量を補正し、前記人物判定手段は、前記特徴点変化検出手段により補正された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the feature point extracting unit calculates a feature point of a face outline included in the face image from the face image extracted by the face image extracting unit. And the feature point change detecting means extracts the feature point of the face extracted by the feature point extracting means based on the change of the feature point with time of the contour of the face extracted by the feature point extracting means. And the person determining means is included in the face image extracted by the face image extracting means based on the temporal change of the facial feature points corrected by the feature point change detecting means. It is characterized by determining whether a face is a person.

請求項2に記載の発明によれば、手ぶれにより抽出された顔の特徴点が変化したとしてもその手ぶれ量を補正し、補正後の顔の特徴点の経時的な変化に基づいて、顔画像に含まれる顔が人物か否かを判定する。   According to the second aspect of the present invention, even if the facial feature point extracted by camera shake changes, the amount of camera shake is corrected, and based on the temporal change of the corrected facial feature point, the facial image It is determined whether the face included in is a person.

したがって、手ぶれによる誤判定を低減することが可能となる。   Therefore, erroneous determination due to camera shake can be reduced.

請求項3に記載の発明は、請求項1に記載の発明において、前記顔画像抽出手段により抽出された顔画像の面積を検出する面積検出手段をさらに備え、特徴点変化検出手段、及び人物判定手段は、前記面積検出手段により検出された面積が一定値を越えた場合に、前記各処理を実行することを特徴とする。   The invention according to claim 3 is the invention according to claim 1, further comprising area detection means for detecting the area of the face image extracted by the face image extraction means, a feature point change detection means, and person determination The means is characterized in that each processing is executed when the area detected by the area detection means exceeds a certain value.

請求項3に記載の発明によれば、抽出された顔画像の面積が一定値を越えた場合にのみ、顔画像に含まれる顔が人物か否かを判定するための処理を行う。   According to the third aspect of the present invention, the process for determining whether or not the face included in the face image is a person is performed only when the area of the extracted face image exceeds a certain value.

したがって、顔画像の面積が一定値を越えないことによる誤判定又は無駄な処理を低減することが可能となる。   Therefore, it is possible to reduce misjudgment or useless processing due to the area of the face image not exceeding a certain value.

請求項4に記載の発明は、請求項1に記載の発明において、前記顔画像抽出手段により抽出された顔画像に含まれる顔に対して優先的にフォーカスさせるフォーカス手段をさらに備え、前記特徴点変化検出手段、及び判定手段は、前記フォーカス手段によるフォーカス位置が広角側の所定位置に位置している場合に、前記各処理を実行することを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the invention, the feature point is further provided with a focus unit that preferentially focuses a face included in the face image extracted by the face image extraction unit. The change detection unit and the determination unit execute the processes when the focus position by the focus unit is located at a predetermined position on the wide-angle side.

請求項4に記載の発明によれば、フォーカス位置が広角側の所定位置に位置している場合にのみ、顔画像から顔の特徴点を抽出する等の、顔画像に含まれる顔が人物か否かを判定するための処理を行う。   According to the fourth aspect of the present invention, whether the face included in the face image is a person, such as extracting a facial feature point from the face image only when the focus position is located at a predetermined position on the wide-angle side. Processing for determining whether or not is performed.

これによりピントずれがより少ない画像を対象とできるため誤判定を低減することが可能となる。また、処理の軽量化も実現できる。   As a result, it is possible to target an image with less focus shift, and thus it is possible to reduce erroneous determination. Further, the processing can be reduced in weight.

請求項5に記載の発明は、請求項1に記載の発明において、前記特徴点抽出手段により抽出された顔の特徴点と前記人物判定手段により判定された結果とを対応づけて記憶する記憶手段と、前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されているか否かを判定するメモリ内判定手段と、前記メモリ内判定手段により前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されていると判定された場合には、前記記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出すことを特徴とする。   According to a fifth aspect of the present invention, in the first aspect of the invention, the storage means for storing the face feature points extracted by the feature point extracting means and the results determined by the person determining means in association with each other And an in-memory determination unit that determines whether or not the feature point of the face newly extracted by the feature point extraction unit is stored in the storage unit, and the feature point extraction unit newly determines by the in-memory determination unit When it is determined that the feature points of the face extracted in step S3 are stored in the storage unit, the determination result stored in association with the feature points of the face is read from the storage unit. To do.

請求項5に記載の発明によれば、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合には、記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出す。   According to the fifth aspect of the present invention, when it is determined that the newly extracted facial feature point is stored in the storage unit, the facial feature point is stored in association with the facial feature point from the storage unit. The judgment result is read.

すなわち、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合には、抽出された顔の特徴点の経時的な変化を検出しなくてもよいので、極めて迅速に、人物か否かを判定することが可能となる。   That is, when it is determined that the newly extracted facial feature points are stored in the storage unit, it is not necessary to detect a change with time of the extracted facial feature points, so that it is extremely quick. In addition, it is possible to determine whether or not the person is a person.

請求項6に記載の発明は、請求項1に記載の発明において、前記人物判定手段による判定結果を表す表示を表示面に表示する表示手段をさらに備えることを特徴とする。   The invention according to claim 6 is the invention according to claim 1, further comprising display means for displaying a display representing a determination result by the person determination means on a display surface.

請求項6に記載の発明によれば、例えば、いわゆるスルー画像に、人物であると判定された被写体を点線矩形枠(例えば緑色)で囲って表示し、人物でないと判定された被写体を点線矩形枠(例えば赤色)で囲って表示することができる。あるいは、人物であると判定された被写体のみを矩形枠で囲って表示することもできる。   According to the sixth aspect of the present invention, for example, in a so-called through image, a subject determined to be a person is surrounded by a dotted rectangular frame (for example, green) and displayed, and a subject determined not to be a person is displayed as a dotted rectangle. It can be displayed by being surrounded by a frame (for example, red). Alternatively, only a subject determined to be a person can be displayed surrounded by a rectangular frame.

これにより、表示面上の被写体が人物であるか否かを瞬時に判別することが可能となる。   This makes it possible to instantaneously determine whether or not the subject on the display surface is a person.

本発明によれば、デジタルカメラで人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。   According to the present invention, when a subject including a poster or the like other than a person is photographed with a digital camera, the poster or the like can be prevented from being recognized as a person.

〔第一実施形態〕
〔デジタルカメラ100の構成〕
以下、本発明の第一実施形態であるデジタルカメラについて図面を参照しながら説明する。図1は、本発明の第一実施形態であるデジタルカメラの構成を説明するためのブロック図である。
[First embodiment]
[Configuration of Digital Camera 100]
Hereinafter, a digital camera according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram for explaining a configuration of a digital camera according to the first embodiment of the present invention.

本実施形態のデジタルカメラ100では、図1左方から被写体光が入射し、レンズ10(ズームレンズやフォーカスレンズ)、シャッタ11、被写体光の光量を調整する絞り12(アイリスともいう)、及び、光学フィルタ13を通過した後、撮像素子14に結像する。レンズ10、シャッタ11、及び、絞り12はそれぞれ、レンズ駆動部15、シャッタ駆動部16、及び、絞り駆動部17により制御される。   In the digital camera 100 of the present embodiment, subject light enters from the left side of FIG. 1, a lens 10 (zoom lens or focus lens), a shutter 11, a diaphragm 12 (also referred to as an iris) for adjusting the amount of subject light, and After passing through the optical filter 13, an image is formed on the image sensor 14. The lens 10, the shutter 11, and the diaphragm 12 are controlled by a lens driving unit 15, a shutter driving unit 16, and a diaphragm driving unit 17, respectively.

レンズ駆動部15は、CPU18から伝達される指示に従って、ズームモータ(図示せず)を駆動させることにより、ズームレンズを光軸に沿って進退させ所定位置に位置させ、焦点距離を変化させる。また、レンズ駆動部15は、CPU18から伝達される指示に従って、フォーカスモータ(図示せず)を駆動させることにより、フォーカスレンズを光軸に沿って進退させ所定位置に位置させ、焦点距離を変化させる。   The lens driving unit 15 drives a zoom motor (not shown) according to an instruction transmitted from the CPU 18, thereby moving the zoom lens forward and backward along the optical axis to position the zoom lens at a predetermined position, thereby changing the focal length. In addition, the lens driving unit 15 drives a focus motor (not shown) according to an instruction transmitted from the CPU 18, thereby moving the focus lens forward and backward along the optical axis to position the focus lens at a predetermined position and changing the focal length. .

シャッタ駆動部16は、CPU18から伝達される指示に従って、シャッタモータ(図示せず)を駆動させることにより、シャッタ11を制御する。絞り駆動部17は、CPU18から伝達される指示に従って、アイリスモータ(図示せず)を駆動させることにより、絞りの開口量を連続的又は段階的に変化させ、絞り値を変化させる。   The shutter drive unit 16 controls the shutter 11 by driving a shutter motor (not shown) in accordance with an instruction transmitted from the CPU 18. The aperture driving unit 17 drives an iris motor (not shown) according to an instruction transmitted from the CPU 18 to change the aperture amount of the aperture continuously or stepwise to change the aperture value.

光学フィルタ13は、例えば、ナノ粒子の電気泳動を制御することにより透過光量を制御するタイプのフィルタである。この種の光学フィルタは例えば特開2006−72009号公報に記載されている。   The optical filter 13 is, for example, a type of filter that controls the amount of transmitted light by controlling electrophoresis of nanoparticles. This type of optical filter is described in, for example, Japanese Patent Application Laid-Open No. 2006-72009.

撮像素子14は、光電変換素子を含んでおり、例えば、所定のカラーフィルタ配列(例えば、ハニカム配列)のカラーCCDで構成されている。レンズ10等を介して撮像素子14の受光面に入射した光はその受光面に格子状に配列されたフォトダイオード等の光電変換素子により入射光量に応じた量の信号電荷に変換される。そして、光電変換素子に蓄積された信号電荷は、タイミングジェネレータ(TG)等の撮像素子駆動部19から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として撮像素子14から順次出力される。   The imaging element 14 includes a photoelectric conversion element, and is configured by a color CCD having a predetermined color filter array (for example, a honeycomb array), for example. Light that has entered the light receiving surface of the image sensor 14 via the lens 10 or the like is converted into a signal charge in an amount corresponding to the amount of incident light by a photoelectric conversion element such as a photodiode arranged in a lattice pattern on the light receiving surface. The signal charges accumulated in the photoelectric conversion elements are read out in accordance with a timing signal applied from an image sensor driving unit 19 such as a timing generator (TG) and sequentially output from the image sensor 14 as a voltage signal (image signal). .

アナログ信号処理部20は、CDS回路及びアナログアンプを含んでいる。CDS回路は、撮像素子駆動部19から加えられるパルスに基づいてCCD出力信号を相関二重サンプリング処理し、アナログアンプは、CPU18から加えられる撮影感度に応じて設定されたゲインによってCDS回路から出力される画像信号を増幅する。   The analog signal processing unit 20 includes a CDS circuit and an analog amplifier. The CDS circuit performs correlated double sampling processing on the CCD output signal based on the pulse applied from the image sensor driving unit 19, and the analog amplifier is output from the CDS circuit with a gain set according to the imaging sensitivity applied from the CPU 18. Amplify the image signal.

A/D変換器21は、アナログ信号処理部20から出力されたアナログの画像信号をデジタルの画像信号(R、G、BのRAWデータ)に変換する。この変換されたデジタルの画像信号は、RAM等の記憶手段(図示せず)に格納される。   The A / D converter 21 converts the analog image signal output from the analog signal processing unit 20 into a digital image signal (R, G, B RAW data). The converted digital image signal is stored in a storage means (not shown) such as a RAM.

デジタル信号処理部22は、RAM等の記憶手段に格納された画像信号を処埋し、輝度信号と色差信号とからなるYC信号を生成する。例えば、デジタル信号処理部22は、R、G、B信号の黒レベルを揃えるオフセット処理、R、G、B信号に対応するWBゲインRg,Gg,BgによるR、G、B信号のゲイン補正、このゲイン補正によるWB補正、R、G、B信号の階調変換(ガンマ補正)、単板CCDのカラーフィルタ配列に伴うR,G,B信号の空間的なズレを補間してR,G,B信号を同時式に変換する処理、R,G,B信号を輝度信号Y,色差信号Cr,Cbに変換する処理、輝度信号Yの輪郭部(輝度変化の大きい部分)を強調する処理、色差信号Cr,Cbに対して所要のマトリクス変換を行って良好な色再現性を実現させる処理等を行う。   The digital signal processing unit 22 embeds an image signal stored in a storage unit such as a RAM and generates a YC signal composed of a luminance signal and a color difference signal. For example, the digital signal processing unit 22 performs offset processing for aligning the black levels of the R, G, and B signals, gain correction of the R, G, and B signals using the WB gains Rg, Gg, and Bg corresponding to the R, G, and B signals, WB correction by this gain correction, R, G, B signal tone conversion (gamma correction), and R, G, B signal spatial displacements associated with the color filter array of a single CCD are interpolated to obtain R, G, Processing for converting B signal into simultaneous expression, processing for converting R, G, B signals into luminance signal Y and color difference signals Cr, Cb, processing for emphasizing the contour portion (a portion where the luminance change is large), color difference The signal Cr, Cb is subjected to necessary matrix conversion to perform processing for realizing good color reproducibility.

表示部23は液晶ディスプレイ等の表示面を有する画像表示装置であり、この表示部23にいわゆるスルー画像を表示させる場合には、撮像素子14で連続的に撮影し、得られた複数フレーム分の画像の画像信号を連続的に処理してYC信号を生成する。この生成されたYC信号は、D/A変換部24に加えられ、表示用の信号形式に変換されて表示部23に出力される。これにより、表示部23にスルー画像が表示される。   The display unit 23 is an image display device having a display surface such as a liquid crystal display. When a so-called through image is displayed on the display unit 23, images are continuously captured by the image sensor 14, and a plurality of frames obtained are obtained. The YC signal is generated by continuously processing the image signal of the image. The generated YC signal is added to the D / A converter 24, converted into a signal format for display, and output to the display 23. As a result, a through image is displayed on the display unit 23.

画像を記録する場合は、操作部34からの撮影指令に応じて画像を撮像し、得られた画像信号を処理してYC信号を生成する。生成されたYC信号は、記録再生信号処理部25等により所定の圧縮画像データ(例えば、JPEG)とされたのち、外部メモリ26に格納される。   When an image is recorded, the image is picked up in accordance with a shooting command from the operation unit 34, and the obtained image signal is processed to generate a YC signal. The generated YC signal is converted into predetermined compressed image data (for example, JPEG) by the recording / playback signal processing unit 25 and the like, and then stored in the external memory 26.

AE演算部27は、入力された画像信号からAE制御に必要な物理量を算出する。例えば、AE制御に必要な物理量として、1画面を複数のエリア(例えば、8×8)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。そして、AE演算部27は、その算出した積算値、及び画像信号取得時の絞り値、シャツタ速度に基づいて被写体の明るさを検出してEV値を求め、求めたEV値に基づいてプログラム線囲等に基づいて露出を設定する。シャッタ駆動部16及び絞り駆動部17はそれぞれ、設定された露出が得られるように、シャッタモータ(図示せず)及びアイリスモータ(図示せず)を駆動させてシャッタ11及び絞り12を制御する。   The AE calculator 27 calculates a physical quantity necessary for AE control from the input image signal. For example, as a physical quantity necessary for AE control, one screen is divided into a plurality of areas (for example, 8 × 8), and an integrated value of R, G, and B image signals is calculated for each divided area. Then, the AE calculation unit 27 detects the brightness of the subject based on the calculated integrated value, the aperture value at the time of image signal acquisition, and the shirt speed, and obtains the EV value, and the program line based on the obtained EV value. Set the exposure based on the surroundings. The shutter drive unit 16 and the aperture drive unit 17 drive the shutter motor (not shown) and the iris motor (not shown) to control the shutter 11 and the aperture 12 so that the set exposure can be obtained.

AF演算部28は、入力された画像信号からAF制御に必要な物理量を算出する。例えば、AF演算部28は、入力された画像信号から画像の鮮鋭度を示すAF評価値を算出する。レンズ駆動部15は、その算出したAF評価値が極大となるように、フォーカスモータ(図示せず)を駆動させて、フォーカスレンズを進退させ所定位置に位置させる。   The AF calculation unit 28 calculates a physical quantity necessary for AF control from the input image signal. For example, the AF calculation unit 28 calculates an AF evaluation value indicating the sharpness of the image from the input image signal. The lens driving unit 15 drives a focus motor (not shown) so that the calculated AF evaluation value becomes a maximum, and moves the focus lens back and forth to a predetermined position.

顔画像抽出部29は、撮影画像(例えばRAM等の記憶手段に格納されたデジタルの画像信号)から顔を含む画像(顔画像)を抽出する顔画像抽出処理を行う。例えば、顔認識用の色データを予め保持しておき、撮影画像の全領域の色データと前記顔認識用の色データとを比較し、一致する部分を人物の顔として認識し、この人物の顔を含む領域を切り出す(特開平10-334213号参照)。その他、各種の顔画像抽出処理を適用することが可能である。なお、撮影画像に複数の顔が写し込まれている場合には、複数の顔画像が抽出される。   The face image extraction unit 29 performs face image extraction processing for extracting an image (face image) including a face from a captured image (for example, a digital image signal stored in a storage unit such as a RAM). For example, color data for face recognition is stored in advance, the color data of the entire area of the photographed image is compared with the color data for face recognition, and the matching portion is recognized as a person's face. A region including the face is cut out (see Japanese Patent Laid-Open No. 10-334213). In addition, various face image extraction processes can be applied. If a plurality of faces are imprinted on the captured image, a plurality of face images are extracted.

特徴点抽出部30は、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点を抽出する特徴点抽出処理を行う。例えば、顔画像と形状データベース部内のデータとの一致度を算出し、この一致度と形状データを基に画像の特徴点を抽出する(特開平05-197793号参照)。その他、特開平08-077334号に記載のもの等、各種の特徴点抽出処理を適用することが可能である。   The feature point extraction unit 30 performs a feature point extraction process for extracting a feature point of a face included in the face image from the face image extracted by the face image extraction unit 29. For example, the degree of coincidence between the face image and the data in the shape database unit is calculated, and feature points of the image are extracted based on the degree of coincidence and the shape data (see Japanese Patent Laid-Open No. 05-197793). In addition, various feature point extraction processes such as those described in Japanese Patent Application Laid-Open No. 08-077334 can be applied.

特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う。   The feature point change detection unit 31 performs a feature point change detection process for detecting a change over time of the facial feature points extracted by the feature point extraction unit 30.

人物判別部32は、特徴点変化検知部31により検出された顔の特徴点の経時的な変化に基づいて、顔画像抽出部29により抽出された顔画像に含まれる顔が人物か否か、すなわち、実際にその場所にいる人物かあるいはポスター(又は絵画やフィギュア)か否かを判定する処理を行う。   The person determination unit 32 determines whether the face included in the face image extracted by the face image extraction unit 29 is a person based on the temporal change in the feature points of the face detected by the feature point change detection unit 31. That is, a process of determining whether the person is actually in the place or a poster (or a picture or a figure) is performed.

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点と人物判別部32により判定された結果とを対応づけてRAM等の記憶手段に記憶する処理を行う。   The person extraction unit 33 performs processing for associating the facial feature points extracted by the feature point extraction unit 30 with the results determined by the person determination unit 32 and storing them in a storage unit such as a RAM.

〔デジタルカメラ100の動作 その1〕
次に、上記構成のデジタルカメラ100の動作(その1)について図面を参照しながら説明する。
[Operation of Digital Camera 100]
Next, the operation (part 1) of the digital camera 100 having the above-described configuration will be described with reference to the drawings.

図2は、第一実施形態のデジタルカメラの動作(その1)を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining the operation (part 1) of the digital camera of the first embodiment.

以下の処理は、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する処理であり、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing is processing for determining whether or not the face included in the face image is a person based on the change over time of the facial feature points extracted from the face image. The CPU 18 is mainly read into the RAM or the like. This is realized by executing the predetermined program.

デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS10)。   When the power of the digital camera 100 is turned on, continuous shooting is performed by the image sensor 14, and image data is generated from the output signal of the image sensor 14 and stored in storage means such as a RAM (step S10).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS11)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS12)。上記ステップS10からステップS12の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。   The face image extraction unit 29 performs a face image extraction process for extracting a face image including a face from image data stored in a storage unit such as a RAM (step S11). Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 performs facial feature points (for example, eyebrows, etc.) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting eyes, lips, or teeth) is performed (step S12). The processing from step S10 to step S12 is repeated within a predetermined period or for a predetermined number of frames.

次に、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS13)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。   Next, the feature point change detection unit 31 performs a feature point change detection process for detecting a change over time of the facial feature points extracted by the feature point extraction unit 30 (step S13). For example, the degree of coincidence of feature points between the same face images between the frames is calculated, and when the degree of coincidence exceeds a predetermined threshold, it is detected that the feature points have changed over time.

人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS14:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS15)。一方、特徴点変化検知部31により特徴点の経時的な変化が検出されない場合(図4及び図5右側被写体)には(ステップS14:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS16)。   When the feature point change detection unit 31 detects that the feature point has changed over time (the left subject in FIGS. 4 and 5) (step S14: Yes), the person determination unit 32 (step S14: Yes). It is determined that the face included in the face image extracted by (1) is a person, that is, a person who is actually in that place (step S15). On the other hand, when the feature point change detection unit 31 does not detect the change of the feature point over time (the subject on the right side of FIGS. 4 and 5) (step S14: No), the face image extracted by the face image extraction unit 29 is added. It is determined that the included face is not a person, that is, a poster (or painting or figure) (step S16).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

以上説明したように、本動作では、画像データから顔画像に含まれる顔の特徴点を抽出し(ステップS11、S12)、その顔の特徴点の経時的変化を検出する(ステップS13)。そして、顔の特徴点の経時的変化が検出された場合には(ステップS14:Yes)、顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS15)。一方、顔の特徴点の経時的な変化が検出されない場合には(ステップS14:No)、顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS16)。   As described above, in this operation, the facial feature points included in the face image are extracted from the image data (steps S11 and S12), and the temporal change of the facial feature points is detected (step S13). If a temporal change in the facial feature point is detected (step S14: Yes), it is determined that the face included in the face image is a person, that is, a person who is actually in that place ( Step S15). On the other hand, when a change with time of the facial feature point is not detected (step S14: No), it is determined that the face included in the face image is not a person, that is, a poster (or a picture or a figure) (step S16). ).

したがって、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。
〔デジタルカメラ100の動作 その2〕
次に、上記構成のデジタルカメラ100の他の動作(その2)について説明する。
Therefore, when a subject including a poster other than a person is photographed by the digital camera 100, it is possible to prevent the poster or the like from being recognized as a person.
[Operation of Digital Camera 100 Part 2]
Next, another operation (part 2) of the digital camera 100 configured as described above will be described.

以下の処理は、例えば、手ぶれ等により抽出された顔の特徴点が変化(例えば図6に示すフレームAから図7に示すフレームBに変化)したとしてもその手ぶれ量を補正し、補正後の顔の特徴点の経時的な変化に基づいて、顔画像に含まれる顔が人物か否かを判定する処理であり、例えば、図2中のステップS12とS13の間で実行される。   The following processing, for example, corrects the amount of camera shake even if the facial feature point extracted due to camera shake or the like changes (for example, changes from frame A shown in FIG. 6 to frame B shown in FIG. 7). This is a process for determining whether or not the face included in the face image is a person based on the temporal change of the facial feature points, and is executed, for example, between steps S12 and S13 in FIG.

特徴点抽出部30は、所定数のフレーム(例えば図6に示すフレームA及び図7に示すフレームB)それぞれについて被写体の輪郭の特徴点を抽出する。例えば、図8(a)ではA1、B1・・・、図8(b)ではA2、B2・・・、図9(a)ではA´1、B´1・・・、図9(b)ではA´2、B´2・・・を、それぞれ被写体の輪郭の特徴点として抽出する。そして、各フレーム間の同一特徴点が一致するように、各フレームを所定量回転させあるいは上下左右にシフトさせる。   The feature point extraction unit 30 extracts feature points of the contour of the subject for each of a predetermined number of frames (for example, the frame A shown in FIG. 6 and the frame B shown in FIG. 7). For example, A1, B1... In FIG. 8A, A2, B2... In FIG. 8B, A′1, B′1. Then, A′2, B′2,... Are extracted as feature points of the contour of the subject. Then, each frame is rotated by a predetermined amount or shifted up and down and left and right so that the same feature points between the frames match.

以後、ステップS13以降の処理を行うことで、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。手ぶれ等による抽出された顔の特徴点の変化を除去できるので手ぶれ等による誤判定を低減することが可能となる。   Thereafter, by performing the processing from step S13 onward, when a subject including a poster other than a person is photographed by the digital camera 100, it is possible to prevent the poster or the like from being recognized as a person. Since it is possible to remove changes in the extracted facial feature points due to camera shake or the like, it is possible to reduce erroneous determination due to camera shake or the like.

〔デジタルカメラ100の動作 その3〕
次に、デジタルカメラ100の他の動作(その3)について図面を参照しながら説明する。
[Operation of Digital Camera 100]
Next, another operation (part 3) of the digital camera 100 will be described with reference to the drawings.

図10は、デジタルカメラ100の他の動作(その3)を説明するためのフローチャートである。   FIG. 10 is a flowchart for explaining another operation (No. 3) of the digital camera 100.

以下の処理は、顔画像の面積が一定値以上の場合にだけ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する。この処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing determines whether or not the face included in the face image is a person based on the temporal change of the facial feature points extracted from the face image only when the area of the face image is a certain value or more. . This process is realized mainly by the CPU 18 executing a predetermined program read into the RAM or the like.

デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS20)。   When the power of the digital camera 100 is turned on, continuous imaging is performed by the image sensor 14, and image data is generated from the output signal of the image sensor 14 and stored in storage means such as a RAM (step S20).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS21)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS22)。上記ステップS20からステップS22の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。   The face image extraction unit 29 performs face image extraction processing for extracting a face image including a face from image data stored in a storage unit such as a RAM (step S21). Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 performs facial feature points (for example, eyebrows, etc.) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting eyes, lips, or teeth is performed (step S22). The processing from step S20 to step S22 is repeated within a predetermined period or for a predetermined number of frames.

次に、顔画像抽出部29により抽出された顔画像の面積を求め、この求めた面積が一定値以上であるか否かを判定する(ステップS23)。顔画像の面積は、例えば、図11に示すように、輪郭の特徴点から高さと幅を求め、この高さと幅を掛け合わせて求める方法、顔画像の各画像の輝度の値から顔に相当する画素を識別してこの画素を基に求める方法等が考えられる。あるいは、顔画像自体の高さと幅を掛け合わせて求めてもよい。   Next, the area of the face image extracted by the face image extraction unit 29 is obtained, and it is determined whether or not the obtained area is a certain value or more (step S23). For example, as shown in FIG. 11, the area of the face image corresponds to the face from the method of obtaining the height and width from the feature points of the contour and multiplying the height and width, and the luminance value of each image of the face image. For example, a method of identifying a pixel to be determined and obtaining the pixel based on the pixel can be considered. Alternatively, it may be obtained by multiplying the height and width of the face image itself.

その結果、面積が一定値以上であれば(ステップS23:一定値以上)、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS24)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。   As a result, if the area is greater than or equal to a certain value (step S23: greater than or equal to a certain value), the feature point change detecting unit 31 detects a change over time of the facial feature points extracted by the feature point extracting unit 30. Point change detection processing is performed (step S24). For example, the degree of coincidence of feature points between the same face images between the frames is calculated, and when the degree of coincidence exceeds a predetermined threshold, it is detected that the feature points have changed over time.

人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS25:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS26)。一方、特徴点変化検知部31により特徴点の経時的な変化なしと検出された場合(図4及び図5右被写体)には(ステップS25:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS27)。   When the feature point change detection unit 31 detects that the feature point has changed over time (the left subject in FIGS. 4 and 5) (step S25: Yes), the person determination unit 32 (step S25: Yes). It is determined that the face included in the face image extracted by (1) is a person, that is, a person who is actually in the place (step S26). On the other hand, when the feature point change detection unit 31 detects that the feature point has not changed with time (the right subject in FIGS. 4 and 5) (step S25: No), the face extracted by the face image extraction unit 29 It is determined that the face included in the image is not a person, that is, a poster (or a picture or a figure) (step S27).

一方、面積が一定値未満であれば(ステップS23:一定値未満)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS27)。   On the other hand, if the area is less than a certain value (step S23: less than a certain value), it is determined that the face included in the face image extracted by the face image extraction unit 29 is not a person, that is, a poster (or a picture or a figure). (Step S27).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

以上説明したように、本動作では、顔画像の面積が一定値以上の場合にだけ(ステップS23:一定値以上)、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行い(ステップS24)、かつ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する(ステップS25)。   As described above, in this operation, only when the area of the face image is greater than or equal to a certain value (step S23: greater than or equal to a certain value), the temporal feature point extracted by the feature point extraction unit 30 is changed over time. A feature point change detection process to be detected is performed (step S24), and it is determined whether or not the face included in the face image is a person based on the temporal change of the facial feature points extracted from the face image (step S24). S25).

したがって、顔画像の面積が一定値を越えないことによる誤判定又は無駄な処理を低減することが可能となる。   Therefore, it is possible to reduce misjudgment or useless processing due to the area of the face image not exceeding a certain value.

〔デジタルカメラ100の動作 その4〕
次に、デジタルカメラ100の他の動作(その4)について図面を参照しながら説明する。
[Operation of Digital Camera 100 Part 4]
Next, another operation (part 4) of the digital camera 100 will be described with reference to the drawings.

図12は、デジタルカメラ100の他の動作(その4)を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining another operation (No. 4) of the digital camera 100.

以下の処理は、フォーカス位置が広角側の所定位置に位置している場合にだけ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する。この処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing is performed only when the focus position is at a predetermined position on the wide-angle side, based on the temporal change of the facial feature points extracted from the face image, whether or not the face included in the face image is a person. Determine whether. This process is realized mainly by the CPU 18 executing a predetermined program read into the RAM or the like.

デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS30)。   When the power of the digital camera 100 is turned on, continuous shooting is performed by the image sensor 14, image data is generated from the output signal of the image sensor 14, and stored in storage means such as a RAM (step S30).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS31)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS32)。上記ステップS30からステップS32の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。   The face image extraction unit 29 performs a face image extraction process for extracting a face image including a face from image data stored in a storage unit such as a RAM (step S31). Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 performs facial feature points (for example, eyebrows, etc.) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting eyes, lips, or teeth) is performed (step S32). The processing from step S30 to step S32 is repeated within a predetermined period or for a predetermined number of frames.

次に、ズームレンズの位置を求め、この求めた位置が一定値より望遠側に位置している否かを判定する(ステップS33)。   Next, the position of the zoom lens is obtained, and it is determined whether or not the obtained position is located on the telephoto side from a certain value (step S33).

その結果、求めた位置が一定値より望遠側に位置しているのであれば(ステップS33:一定値より望遠)、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS34)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。   As a result, if the obtained position is located on the telephoto side from the constant value (step S33: telephoto from the constant value), the feature point change detecting unit 31 extracts the facial features extracted by the feature point extracting unit 30. A feature point change detection process for detecting a change of the point with time is performed (step S34). For example, the degree of coincidence of feature points between the same face images between the frames is calculated, and when the degree of coincidence exceeds a predetermined threshold, it is detected that the feature points have changed over time.

人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS35:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS36)。一方、特徴点変化検知部31により特徴点の経時的な変化なしと検出された場合(図4及び図5右被写体)には(ステップS35:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS37)。   When the feature point change detection unit 31 detects that the feature point has changed with time (left subject in FIGS. 4 and 5) (step S35: Yes), the person determination unit 32 (step S35: Yes). It is determined that the face included in the face image extracted by (1) is a person, that is, a person who is actually in that place (step S36). On the other hand, when the feature point change detection unit 31 detects that the feature point has not changed with time (the right subject in FIGS. 4 and 5) (step S35: No), the face extracted by the face image extraction unit 29 It is determined that the face included in the image is not a person, that is, a poster (or painting or figure) (step S37).

一方、求めた位置が一定値より広角側に位置しているのであれば(ステップS33:一定値より広角)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS37)。   On the other hand, if the obtained position is located on the wide angle side from the certain value (step S33: wide angle from the certain value), the face included in the face image extracted by the face image extracting unit 29 is not a person, that is, Then, it is determined as a poster (or a picture or a figure) (step S37).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

以上説明したように、本動作では、ズームレンズの位置が一定値より望遠側に位置している場合にだけ(ステップS33:一定値より望遠)、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行い(ステップS24)、かつ、顔画像から抽出された顔の特徴点の経時的な変化に基づき、顔画像に含まれる顔が人物か否かを判定する(ステップS35)。   As described above, in this operation, the facial features extracted by the feature point extraction unit 30 only when the position of the zoom lens is located on the telephoto side from a certain value (step S33: telephoto from a certain value). Whether or not the face included in the face image is a person based on the change over time of the feature points of the face extracted from the face image is performed (step S24). It is determined whether or not (step S35).

これによりピントずれがより少ない画像を処理の対象とできるため誤判定を低減することが可能となる。また、処理の軽量化も実現できる。   As a result, an image with less focus shift can be processed, and erroneous determination can be reduced. Further, the processing can be reduced in weight.

なお、ズーム位置の判定ステップS33は、図13に示す位置に設けてもよい。   The zoom position determination step S33 may be provided at the position shown in FIG.

〔デジタルカメラ100の動作 その5〕
次に、デジタルカメラ100の他の動作(その5)について図面を参照しながら説明する。
[Operation of digital camera 100]
Next, another operation (part 5) of the digital camera 100 will be described with reference to the drawings.

図14は、デジタルカメラ100の他の動作(その5)を説明するためのフローチャートである。   FIG. 14 is a flowchart for explaining another operation (No. 5) of the digital camera 100.

以下の処理は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶しておき、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合には、記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出す処理である。この処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing includes the face feature point (or face image) extracted by the feature point extraction unit 30 and the result determined by the person determination unit 32 (identifier for identifying that the face image is a person, or , An identifier for identifying that the face image is not a person) and the like are stored in storage means such as a RAM, and the newly extracted facial feature points are stored in the storage means. When the determination is made, the determination result stored in association with the facial feature point is read from the storage means. This process is realized mainly by the CPU 18 executing a predetermined program read into the RAM or the like.

デジタルカメラ100の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS40)。   When the power of the digital camera 100 is turned on, continuous shooting is performed by the image sensor 14, image data is generated from the output signal of the image sensor 14, and stored in storage means such as a RAM (step S40).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む顔画像を抽出する顔画像抽出処理を行う(ステップS41)。次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(例えば、眉、目、唇、又は歯)を抽出する処理を行う(ステップS42)。上記ステップS40からステップS42の処理を予め定められた期間内又は予め定められたフレーム数分繰り返す。   The face image extraction unit 29 performs a face image extraction process for extracting a face image including a face from image data stored in a storage unit such as a RAM (step S41). Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 performs facial feature points (for example, eyebrows, etc.) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting eyes, lips, or teeth is performed (step S42). The processing from step S40 to step S42 is repeated within a predetermined period or for a predetermined number of frames.

次に、記憶手段内の顔画像と照合する(ステップS43)。すなわち、特徴点抽出部30により抽出された顔の特徴点(新たに抽出された顔の特徴点)がRAM等の記憶手段に記憶されているか否かを判定する。   Next, it collates with the face image in the storage means (step S43). That is, it is determined whether or not the facial feature points (newly extracted facial feature points) extracted by the feature point extraction unit 30 are stored in a storage unit such as a RAM.

その結果、新たに抽出された顔の特徴点が記憶手段に記憶されていないのであれば(ステップS43:メモリ内の画像と一致しない)、特徴点変化検知部31は、特徴点抽出部30により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検知処理を行う(ステップS44)。例えば、各フレーム間の同一顔画像間の特徴点の一致度を算出し、この一致度が予め定められた閾値を越えた場合に、特徴点の経時的な変化ありを検出する。   As a result, if the newly extracted facial feature point is not stored in the storage means (step S43: does not match the image in the memory), the feature point change detection unit 31 uses the feature point extraction unit 30. A feature point change detection process is performed to detect a change with time of the extracted facial feature points (step S44). For example, the degree of coincidence of feature points between the same face images between the frames is calculated, and when the degree of coincidence exceeds a predetermined threshold, it is detected that the feature points have changed over time.

人物判別部32は、特徴点変化検知部31により特徴点の経時的な変化ありと検出された場合(図4及び図5の左被写体)には(ステップS45:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS46)。一方、特徴点変化検知部31により特徴点の経時的な変化なしと検出された場合(図4及び図5右被写体)には(ステップS45:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS48)。   When the feature point change detection unit 31 detects that the feature point has changed with time (left subject in FIGS. 4 and 5) (step S45: Yes), the person determination unit 32 (step S45: Yes). It is determined that the face included in the face image extracted by (1) is a person, that is, a person who is actually in that place (step S46). On the other hand, when the feature point change detection unit 31 detects that the feature point has not changed over time (the right subject in FIGS. 4 and 5) (step S45: No), the face extracted by the face image extraction unit 29 It is determined that the face included in the image is not a person, that is, a poster (or a picture or a figure) (step S48).

そして、人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   Then, the person extraction unit 33 identifies the facial feature points (or face images) extracted by the feature point extraction unit 30 and the results determined by the person determination unit 32 (for identifying that the face image is a person). An identifier or an identifier for identifying that the face image is not a person) is stored in a storage means such as a RAM.

一方、新たに抽出された顔の特徴点が記憶手段に記憶されているのであれば(ステップS43:メモリ内の画像と一致)、記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出す。   On the other hand, if the newly extracted facial feature point is stored in the storage means (step S43: coincides with the image in the memory), it is stored in correspondence with the facial feature point from the storage means. Read the judgment result.

そして、その読み出した判定結果が人物でないことを表しているのであれば(ステップS47:ポスター)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS48)。一方、その判定結果が人物であることを表しているのであれば(ステップS47:人物)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物と判定する(ステップS46)。   If the read determination result indicates that the person is not a person (step S47: poster), the face included in the face image extracted by the face image extraction unit 29 is not a person, that is, a poster (or It is determined that it is a painting or a figure (step S48). On the other hand, if the determination result indicates that the person is a person (step S47: person), the face included in the face image extracted by the face image extraction unit 29 is a person, that is, the actual place (Step S46).

以上説明したように、本動作では、新たに抽出された顔の特徴点が記憶手段に記憶されていると判定された場合(ステップS43:メモリ内の画像と一致)には、抽出された顔の特徴点の経時的な変化を検出しなくてもよい(ステップS44及びS45の処理を行わなくてもよい)ので、極めて迅速に、人物か否かを判定することが可能となる。   As described above, in this operation, when it is determined that the newly extracted facial feature points are stored in the storage unit (step S43: match the image in the memory), the extracted face Since it is not necessary to detect the change of the feature point over time (the process of steps S44 and S45 is not necessary), it is possible to determine whether or not the person is a person very quickly.

〔第二実施形態〕
〔デジタルカメラ200の構成〕
次に、本発明の第二実施形態であるデジタルカメラについて図面を参照しながら説明する。図17は、本発明の第二実施形態であるデジタルカメラの構成を説明するためのブロック図である。
[Second Embodiment]
[Configuration of Digital Camera 200]
Next, a digital camera according to a second embodiment of the present invention will be described with reference to the drawings. FIG. 17 is a block diagram for explaining a configuration of a digital camera according to the second embodiment of the present invention.

本実施形態のデジタルカメラ200は、第一実施形態のデジタルカメラ100の構成に加えてさらに、距離画像を得るための構成40(発光素子駆動部41、発光素子42、光学フィルタ43、撮像素子駆動部44、受光素子45、距離演算部46等)、画像照合部47を備えている。   In addition to the configuration of the digital camera 100 of the first embodiment, the digital camera 200 of the present embodiment further includes a configuration 40 for obtaining a distance image (light emitting element driving unit 41, light emitting element 42, optical filter 43, image sensor driving). Unit 44, light receiving element 45, distance calculating unit 46, etc.) and image collating unit 47.

発光素子駆動部41は、CPU18から伝達される指示に従って、所定タイミングで発光素子42を発光させて被写体に光を照射し、被写体からの反射光を光学フィルタ43等を介して撮像素子駆動部44により駆動させられる受光素子45で受光し、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(例えば特開2006-172210号参照)。   The light emitting element driving unit 41 causes the light emitting element 42 to emit light at a predetermined timing in accordance with an instruction transmitted from the CPU 18 to irradiate the subject with light, and the reflected light from the subject is captured through the optical filter 43 and the like, and the imaging element driving unit 44. And a distance image having a pixel value as a distance value obtained by converting a phase difference of light from light emission to light reception into a distance to a subject by a distance calculation unit 46 or the like (see, for example, Japanese Patent Laid-Open No. 2006). -172210).

画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点(例えば目、鼻)それぞれまでの距離を算出する。   The image collation unit 47 collates the face image extracted by the face image extraction unit 29 with the distance image, and calculates the distance to each of the facial feature points (for example, eyes and nose) extracted by the feature point extraction unit 30. To do.

人物判別部32は、画像照合部47により算出された顔画像中の特徴点それぞれまでの距離に基づいて、顔画像抽出部29により抽出された顔画像に含まれる顔が人物か否か、すなわち、実際にその場所にいる人物かあるいはポスター(又は絵画やフィギュア)か否かを判定する処理を行う。   The person determination unit 32 determines whether the face included in the face image extracted by the face image extraction unit 29 is a person based on the distance to each feature point in the face image calculated by the image matching unit 47, that is, Then, a process of determining whether the person is actually in the place or a poster (or a picture or a figure) is performed.

他の構成については、第一実施形態と同様であるので同一の符号を付し説明を省略する。   Since other configurations are the same as those in the first embodiment, the same reference numerals are given and description thereof is omitted.

次に、上記構成のデジタルカメラ200の動作について図面を参照しながら説明する。   Next, the operation of the digital camera 200 having the above configuration will be described with reference to the drawings.

〔デジタルカメラ200の動作〕
図18は、第二実施形態のデジタルカメラの動作を説明するためのフローチャートである。
[Operation of Digital Camera 200]
FIG. 18 is a flowchart for explaining the operation of the digital camera of the second embodiment.

以下の処理は、顔画像中の特徴点それぞれまでの距離に基づいて、顔画像に含まれる顔が人物か否かを判定する処理であり、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing is processing for determining whether or not the face included in the face image is a person based on the distance to each feature point in the face image. Mainly, the CPU 18 reads a predetermined program read into the RAM or the like. It is realized by executing.

デジタルカメラ200の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS50)。   When the power of the digital camera 200 is turned on, continuous shooting is performed by the image sensor 14, and image data is generated from the output signal of the image sensor 14 and stored in storage means such as a RAM (step S50).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS51)。   The face image extraction unit 29 performs a face image extraction process for extracting an image including a face from image data stored in a storage unit such as a RAM (step S51).

次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS52)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS53)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS54)。   Next, the light emitting element 42 is caused to emit light at a predetermined timing to irradiate the subject with light (step S52), and the reflected light from the subject is received by the light receiving element 45 through the optical filter 43 or the like (step S53) to calculate the distance. A distance image having a pixel value as a distance value obtained by converting the phase difference of light from light emission to light reception into the distance to the subject by the unit 46 or the like is obtained (step S54).

次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS55)。   Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 extracts facial feature points (right eye, left eye, and right eye) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting the nose is performed (step S55).

そして、画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得る(ステップS56)。   Then, the image collating unit 47 collates the face image extracted by the face image extracting unit 29 with the distance image, and each of the right eye, the left eye, and the nose which are the facial feature points extracted by the feature point extracting unit 30 is obtained. Distances L1, L2, and L3 are obtained (step S56).

人物判別部32は、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する(ステップS57)。例えば、人物の条件(L1+L2)/2=L3を演算し、その人物の条件を満たすのであれば(ステップS58:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS59)。一方、その人物の条件を満たさないのであれば(ステップS58:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS60)。   The person determination unit 32 calculates whether or not these distances L1, L2, and L3 satisfy a person condition (step S57). For example, if the condition of the person (L1 + L2) / 2 = L3 is calculated and the condition of the person is satisfied (step S58: Yes), the face included in the face image extracted by the face image extraction unit 29 is a person. It is determined that there is a person who is actually at the place (step S59). On the other hand, if the condition of the person is not satisfied (step S58: No), it is determined that the face included in the face image extracted by the face image extraction unit 29 is not a person, that is, a poster (or a picture or a figure). (Step S60).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

以上説明したように、本動作では、抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得て(ステップS56)、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する(ステップS57)。そして、その人物の条件を満たすのであれば(ステップS58:Yes)、顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS59)。一方、その人物の条件を満たさないのであれば(ステップS58:No)、顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS60)。   As described above, in this operation, the distances L1, L2, and L3 to the right eye, left eye, and nose, which are the extracted facial feature points, are obtained (step S56), and these distances L1, L2, and L3 are obtained. It is calculated whether or not the condition of the person is satisfied (step S57). If the condition of the person is satisfied (step S58: Yes), it is determined that the face included in the face image is a person, that is, a person who is actually in the place (step S59). On the other hand, if the condition of the person is not satisfied (step S58: No), it is determined that the face included in the face image is not a person, that is, a poster (or a picture or a figure) (step S60).

したがって、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。   Therefore, when a subject including a poster other than a person is photographed by the digital camera 100, it is possible to prevent the poster or the like from being recognized as a person.

なお、人物の条件は(L1+L2)/2=L3に限定されない。測距に誤差ΔLが含まれていると想定される場合には、人物の条件は(L1+L2)/2>L3+ΔLであってもよい。さらに、人物以外の条件(L1+L2)/2<L3+ΔLを採用してもよい。   The person condition is not limited to (L1 + L2) / 2 = L3. When it is assumed that the error ΔL is included in the distance measurement, the condition of the person may be (L1 + L2) / 2> L3 + ΔL. Furthermore, a condition other than a person (L1 + L2) / 2 <L3 + ΔL may be employed.

あるいは、人物以外の条件として、L1<L3<L2、又は、L1>L3>L2を採用し、人物の条件として、これら条件を満たさない場合、を採用してもよい。その他、人物の条件として、各種の条件を採用し得る。   Alternatively, L1 <L3 <L2 or L1> L3> L2 may be adopted as a condition other than the person, and a case where these conditions are not satisfied may be adopted as the condition of the person. In addition, various conditions can be adopted as the condition of the person.

〔第三実施形態〕
〔デジタルカメラ300の構成〕
次に、本発明の第三実施形態であるデジタルカメラについて図面を参照しながら説明する。図19は、本発明の第三実施形態であるデジタルカメラの構成を説明するためのブロック図である。
[Third embodiment]
[Configuration of Digital Camera 300]
Next, a digital camera according to a third embodiment of the present invention will be described with reference to the drawings. FIG. 19 is a block diagram for explaining a configuration of a digital camera according to the third embodiment of the present invention.

本実施形態のデジタルカメラ300は、第二実施形態のデジタルカメラ200の構成に加えてさらに、ズームの影響を除去するためのズーム倍率演算部50を備えている。   In addition to the configuration of the digital camera 200 of the second embodiment, the digital camera 300 of the present embodiment further includes a zoom magnification calculation unit 50 for removing the influence of zoom.

他の構成については、第二実施形態と同様であるので同一の符号を付し説明を省略する。   Since other configurations are the same as those in the second embodiment, the same reference numerals are given and description thereof is omitted.

〔デジタルカメラ300の動作 その1〕
次に、上記構成のデジタルカメラ300の動作(その1)について図面を参照しながら説明する。
[Operation of Digital Camera 300 Part 1]
Next, an operation (part 1) of the digital camera 300 having the above-described configuration will be described with reference to the drawings.

図20は、第三実施形態のデジタルカメラの動作(その1)を説明するためのフローチャートである。   FIG. 20 is a flowchart for explaining the operation (part 1) of the digital camera of the third embodiment.

以下の処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing is mainly realized by the CPU 18 executing a predetermined program read into the RAM or the like.

デジタルカメラ200の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS70)。   When the power of the digital camera 200 is turned on, continuous imaging is performed by the image sensor 14, image data is generated from the output signal of the image sensor 14, and stored in a storage means such as a RAM (step S70).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS71)。   The face image extraction unit 29 performs face image extraction processing for extracting an image including a face from image data stored in storage means such as a RAM (step S71).

次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS72)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS73)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS74)。   Next, the light emitting element 42 is caused to emit light at a predetermined timing to irradiate the subject with light (step S72), and the reflected light from the subject is received by the light receiving element 45 through the optical filter 43 or the like (step S73) to calculate the distance. A distance image having a pixel value as a distance value obtained by converting the phase difference of light from light emission to light reception into the distance to the subject by the unit 46 or the like is obtained (step S74).

次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS75)。   Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 extracts facial feature points (right eye, left eye, and right eye) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting the nose is performed (step S75).

そして、ズーム倍率演算部50は、顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する(ステップS76)。これは、特徴点の大きさを判断するためにズームの影響を除去するための処理である。ズームの影響を除去した特徴点のサイズと距離からそれが人物として適切か否かを判定する。   Then, the zoom magnification calculator 50 corrects the influence of the zoom magnification on the image area corresponding to the feature point of the face image (step S76). This is a process for removing the influence of zoom in order to determine the size of the feature point. It is determined from the size and distance of the feature point from which the influence of zoom is removed whether or not it is appropriate as a person.

この判定方法について、図21から図23を参照しながら説明する。   This determination method will be described with reference to FIGS.

図21はポスターの前に人物が位置している状態を示している。図22は、図21に示したポスター及び人物とデジタルカメラ300との位置関係を示している。図23は、「デジタルカメラ300からの距離」と「画像上の特徴点間の距離」との関係を示している。   FIG. 21 shows a state where a person is located in front of the poster. FIG. 22 shows the positional relationship between the poster and person shown in FIG. 21 and the digital camera 300. FIG. 23 shows the relationship between “distance from the digital camera 300” and “distance between feature points on the image”.

図21に示すように、顔画像の特徴点として右目、左目、鼻の頂点を採用し、例えば、それぞれの顔についてT1、T2、T3、及びT´1、T´2、T´3で表す。また、T1、T2、T3の重心、T´1、T´2、T´3の重心をそれぞれ、T4、T´4で表す。さらに図22に示すように、デジタルカメラ300から重心T4、T´4までの距離をそれぞれ、L4、L´4で表す。また図21に示すように、「画像上の特徴点間の距離」として例えば、右目と鼻の頂点間の距離をそれぞれ、L5、L5´で表す。   As shown in FIG. 21, the vertexes of the right eye, left eye, and nose are adopted as feature points of the face image. For example, each face is represented by T1, T2, T3, and T'1, T'2, T'3. . Further, the centroids of T1, T2, and T3 and the centroids of T′1, T′2, and T′3 are represented by T4 and T′4, respectively. Further, as shown in FIG. 22, the distances from the digital camera 300 to the centroids T4 and T′4 are represented by L4 and L′ 4, respectively. As shown in FIG. 21, for example, the distances between the right eye and the nose vertices are represented as L5 and L5 ′ as “distances between feature points on the image”.

そして、RAM等の記憶手段内に図23に示す「デジタルカメラ300からの距離」と「画像上の特徴点間の距離」との座標系、及びこの座標系上に設定された人物領域及び人物以外の領域(図中ポートレート領域)を表すテーブルあるいは式を記憶させておく。   23, a coordinate system of “distance from the digital camera 300” and “distance between feature points on the image” shown in FIG. 23, and a person area and a person set on this coordinate system. A table or expression representing an area other than (portrait area in the figure) is stored.

ズーム倍率演算部50は、顔画像抽出部29により抽出された顔画像と距離画像とを照合等し、距離L4、L5、L´4、L´5を得る(ステップS77)。   The zoom magnification calculation unit 50 collates the face image extracted by the face image extraction unit 29 with the distance image and obtains distances L4, L5, L′ 4, and L′ 5 (step S77).

人物判別部32は、これらの距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS78)。すなわち、距離L4とL5に対応する座標系の位置(又はL´4とL´5に対応する座標系の位置)が人物領域に該当するか否かを判定する。その結果、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当する(人物の条件を満たす)のであれば(ステップS78:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS79)。一方、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当しない(人物の条件を満たさない)のであれば(ステップS78:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS80)。   The person determination unit 32 determines whether or not these distances L4, L5, L′ 4, and L′ 5 satisfy the person condition (step S78). That is, it is determined whether or not the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to L′ 4 and L′ 5) corresponds to the person area. As a result, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) corresponds to the person area (the condition of the person is satisfied) (step S78: Yes), it is determined that the face included in the face image extracted by the face image extraction unit 29 is a person, that is, a person who is actually in that place (step S79). On the other hand, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) does not correspond to the person area (does not satisfy the condition of the person) (step) S78: No), it is determined that the face included in the face image extracted by the face image extraction unit 29 is not a person, that is, a poster (or a picture or a figure) (step S80).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

以上説明したように、本動作では、距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS78)。そして、その人物の条件を満たすのであれば(ステップS78:Yes)、顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS79)。一方、その人物の条件を満たさないのであれば(ステップS78:No)、顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS80)。   As described above, in this operation, it is determined whether or not the distances L4, L5, L′ 4, and L′ 5 satisfy the condition of the person (step S78). If the condition of the person is satisfied (step S78: Yes), it is determined that the face included in the face image is a person, that is, a person who is actually in the place (step S79). On the other hand, if the condition of the person is not satisfied (step S78: No), it is determined that the face included in the face image is not a person, that is, a poster (or a picture or a figure) (step S80).

したがって、デジタルカメラ100で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。   Therefore, when a subject including a poster other than a person is photographed by the digital camera 100, it is possible to prevent the poster or the like from being recognized as a person.

また、ズームの影響を除去した顔の長さと距離情報をもとに、それぞれの顔画像について人物か否かを判断することが可能となる。   Further, it is possible to determine whether each face image is a person based on the face length and distance information from which the influence of zoom is removed.

なお、少なくとも2組の特徴点について上記処理を行うことで、誤判定の確率を低減することが可能となる。   Note that the probability of erroneous determination can be reduced by performing the above processing on at least two sets of feature points.

〔デジタルカメラ300の動作 その2〕
次に、上記構成のデジタルカメラ300の他の動作(その2)について図面を参照しながら説明する。
[Operation of Digital Camera 300 Part 2]
Next, another operation (part 2) of the digital camera 300 configured as described above will be described with reference to the drawings.

図24は、第三実施形態のデジタルカメラ300の他の動作(その2)を説明するためのフローチャートである。   FIG. 24 is a flowchart for explaining another operation (No. 2) of the digital camera 300 according to the third embodiment.

以下の処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing is mainly realized by the CPU 18 executing a predetermined program read into the RAM or the like.

デジタルカメラ300の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS90)。   When the power of the digital camera 300 is turned on, continuous shooting is performed by the image sensor 14, image data is generated from the output signal of the image sensor 14, and stored in storage means such as a RAM (step S90).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS91)。   The face image extraction unit 29 performs face image extraction processing for extracting an image including a face from image data stored in storage means such as a RAM (step S91).

次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS92)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS93)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS94)。   Next, the light emitting element 42 is caused to emit light at a predetermined timing to irradiate the subject with light (step S92), and the reflected light from the subject is received by the light receiving element 45 through the optical filter 43 or the like (step S93) to calculate the distance. A distance image having a pixel value as a distance value obtained by converting the phase difference of light from light emission to light reception into the distance to the subject by the unit 46 or the like is obtained (step S94).

次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS95)。   Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 extracts facial feature points (right eye, left eye, and right eye) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting the nose is performed (step S95).

そして、画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得る(ステップS96)。   Then, the image collating unit 47 collates the face image extracted by the face image extracting unit 29 with the distance image, and each of the right eye, the left eye, and the nose which are the facial feature points extracted by the feature point extracting unit 30 is obtained. Distances L1, L2, and L3 are obtained (step S96).

人物判別部32は、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する(ステップS97)。例えば、人物の条件(L1+L2)/2=L3を演算し、その人物の条件を満たすのであれば(ステップS98:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS103)。一方、その人物の条件を満たさないのであれば(ステップS98:No)、さらに次の処理を行う。   The person determination unit 32 calculates whether or not these distances L1, L2, and L3 satisfy the condition of the person (step S97). For example, if the condition of the person (L1 + L2) / 2 = L3 is calculated and the condition of the person is satisfied (step S98: Yes), the face included in the face image extracted by the face image extraction unit 29 is a person. It is determined that there is a person who is actually at the place (step S103). On the other hand, if the condition of the person is not satisfied (step S98: No), the following process is further performed.

すなわち、ズーム倍率演算部50は、顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する(ステップS99)。これは、特徴点の大きさを判断するためにズームの影響を除去するための処理である。ズームの影響を除去した特徴点のサイズと距離からそれが人物として適切か否かを判定する。この判定方法については、既に説明した(ステップS76参照)。   In other words, the zoom magnification calculator 50 corrects the influence of the zoom magnification on the image area corresponding to the feature point of the face image (step S99). This is a process for removing the influence of zoom in order to determine the size of the feature point. It is determined from the size and distance of the feature point from which the influence of zoom is removed whether or not it is appropriate as a person. This determination method has already been described (see step S76).

ズーム倍率演算部50は、顔画像抽出部29により抽出された顔画像と距離画像とを照合等し、距離L4、L5、L´4、L´5を得る(ステップS100)。   The zoom magnification calculator 50 collates the face image extracted by the face image extractor 29 with the distance image, and obtains distances L4, L5, L′ 4, and L′ 5 (step S100).

人物判別部32は、これらの距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS101)。すなわち、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当するか否かを判定する。その結果、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当する(人物の条件を満たす)のであれば(ステップS101:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS103)。一方、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当しない(人物の条件を満たさない)のであれば(ステップS101:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS102)。   The person determination unit 32 determines whether or not these distances L4, L5, L′ 4, and L′ 5 satisfy a person condition (step S101). That is, it is determined whether or not the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) corresponds to the person area. As a result, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) corresponds to the person area (the condition of the person is satisfied) (step S101: Yes), it is determined that the face included in the face image extracted by the face image extraction unit 29 is a person, that is, a person who is actually in that place (step S103). On the other hand, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) does not correspond to the person area (does not satisfy the condition of the person) (step) S101: No), it is determined that the face included in the face image extracted by the face image extraction unit 29 is not a person, that is, a poster (or a picture or a figure) (step S102).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

なお、ステップS96からS98の処理は、ステップS101の後に行ってもよい。   Note that the processing of steps S96 to S98 may be performed after step S101.

〔デジタルカメラ300の動作 その3〕
次に、上記構成のデジタルカメラ300の他の動作(その3)について図面を参照しながら説明する。
[Operation of Digital Camera 300 Part 3]
Next, another operation (part 3) of the digital camera 300 configured as described above will be described with reference to the drawings.

図25は、第三実施形態のデジタルカメラの他の動作(その3)を説明するためのフローチャートである。   FIG. 25 is a flowchart for explaining another operation (part 3) of the digital camera according to the third embodiment.

以下の処理は、主として、CPU18がRAM等に読み込まれた所定プログラムを実行することにより実現される。   The following processing is mainly realized by the CPU 18 executing a predetermined program read into the RAM or the like.

デジタルカメラ300の電源をオンすると、撮像素子14により連続的な撮影が行われ、この撮像素子14の出力信号から画像データが生成され、RAM等の記憶手段に格納される(ステップS110)。   When the power of the digital camera 300 is turned on, continuous shooting is performed by the image sensor 14, and image data is generated from the output signal of the image sensor 14 and stored in storage means such as a RAM (step S110).

顔画像抽出部29は、RAM等の記憶手段に格納された画像データから顔を含む画像を抽出する顔画像抽出処理を行う(ステップS111)。   The face image extraction unit 29 performs face image extraction processing for extracting an image including a face from image data stored in storage means such as a RAM (step S111).

次に、所定タイミングで発光素子42を発光させて被写体に光を照射し(ステップS112)、被写体からの反射光を光学フィルタ43等を介して受光素子45で受光し(ステップS113)、距離演算部46等により発光から受光までの光の位相差を被写体までの距離に換算した距離値を画素値とする距離画像を得る(ステップS114)。   Next, the light emitting element 42 is caused to emit light at a predetermined timing to irradiate the subject with light (step S112), and the reflected light from the subject is received by the light receiving element 45 through the optical filter 43 or the like (step S113) to calculate the distance. A distance image having a pixel value as a distance value obtained by converting the phase difference of light from light emission to light reception into the distance to the subject is obtained by the unit 46 or the like (step S114).

次に、特徴点抽出部30は、図3、図4、図5に示すように、顔画像抽出部29により抽出された顔画像から該顔画像に含まれる顔の特徴点(右目、左目、鼻)を抽出する処理を行う(ステップS115)。   Next, as shown in FIGS. 3, 4, and 5, the feature point extraction unit 30 extracts facial feature points (right eye, left eye, and right eye) included in the face image from the face image extracted by the face image extraction unit 29. A process of extracting the nose is performed (step S115).

そして、ズーム倍率演算部50は、顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する(ステップS116)。これは、特徴点の大きさを判断するためにズームの影響を除去するための処理である。ズームの影響を除去した特徴点のサイズと距離からそれが人物として適切か否かを判定する。この判定方法については、既に説明した(ステップS76参照)。   Then, the zoom magnification calculator 50 corrects the influence of the zoom magnification on the image area corresponding to the feature point of the face image (step S116). This is a process for removing the influence of zoom in order to determine the size of the feature point. It is determined from the size and distance of the feature point from which the influence of zoom is removed whether or not it is appropriate as a person. This determination method has already been described (see step S76).

ズーム倍率演算部50は、顔画像抽出部29により抽出された顔画像と距離画像とを照合等し、距離L4、L5、L´4、L´5を得る(ステップS117)。   The zoom magnification calculator 50 collates the face image extracted by the face image extractor 29 with the distance image, and obtains distances L4, L5, L′ 4, and L′ 5 (step S117).

人物判別部32は、これらの距離L4、L5、L´4、L´5が人物の条件を満たすか否かを判定する(ステップS118)。すなわち、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当するか否かを判定する。その結果、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当しない(人物の条件を満たさない)のであれば(ステップS118:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS123)。   The person determination unit 32 determines whether or not these distances L4, L5, L′ 4, and L′ 5 satisfy the condition of the person (step S118). That is, it is determined whether or not the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) corresponds to the person area. As a result, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) does not correspond to the person area (does not satisfy the person condition) ( Step S118: No), it is determined that the face included in the face image extracted by the face image extraction unit 29 is not a person, that is, a poster (or a picture or a figure) (step S123).

一方、距離L4とL5に対応する座標系の位置(又は距離L´4とL´5に対応する座標系の位置)が人物領域に該当する(人物の条件を満たす)のであれば(ステップS118:Yes)、さらに次の処理を行う。   On the other hand, if the position of the coordinate system corresponding to the distances L4 and L5 (or the position of the coordinate system corresponding to the distances L′ 4 and L′ 5) corresponds to the person area (the condition of the person is satisfied) (step S118). : Yes), the following processing is further performed.

画像照合部47は、顔画像抽出部29により抽出された顔画像と距離画像とを照合し、特徴点抽出部30により抽出された顔の特徴点である右目、左目、鼻それぞれまでの距離L1、L2、L3を得る(ステップS119)。   The image collation unit 47 collates the face image extracted by the face image extraction unit 29 with the distance image, and distances L1 to the right eye, the left eye, and the nose that are the facial feature points extracted by the feature point extraction unit 30. , L2 and L3 are obtained (step S119).

人物判別部32は、これらの距離L1、L2、L3が人物の条件を満たすか否かを演算する。例えば、人物の条件(L1+L2)/2=L3を演算し(ステップS120)、その人物の条件を満たすのであれば(ステップS121:Yes)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物である、すなわち、実際にその場所にいる人物であると判定する(ステップS122)。一方、その人物の条件を満たさないのであれば(例えば図4及び図5右側被写体)には(ステップS121:No)、顔画像抽出部29により抽出された顔画像に含まれる顔が人物ではない、すなわち、ポスター(又は絵画やフィギュア)と判定する(ステップS123)。   The person determination unit 32 calculates whether or not these distances L1, L2, and L3 satisfy the condition of the person. For example, the condition (L1 + L2) / 2 = L3 of the person is calculated (step S120), and if the condition of the person is satisfied (step S121: Yes), it is included in the face image extracted by the face image extraction unit 29. It is determined that the face is a person, that is, a person who is actually at the place (step S122). On the other hand, if the condition of the person is not satisfied (for example, the right subject in FIGS. 4 and 5) (step S121: No), the face included in the face image extracted by the face image extraction unit 29 is not a person. That is, it is determined as a poster (or painting or figure) (step S123).

人物抽出部33は、特徴点抽出部30により抽出された顔の特徴点(又は顔画像)と人物判別部32により判定された結果(その顔画像が人物であることを識別するための識別子、又は、その顔画像が人物でないことを識別するための識別子等)とを対応づけてRAM等の記憶手段に記憶する。   The person extraction unit 33 includes a facial feature point (or face image) extracted by the feature point extraction unit 30 and a result determined by the person determination unit 32 (an identifier for identifying that the face image is a person, Alternatively, an identifier or the like for identifying that the face image is not a person is associated and stored in a storage means such as a RAM.

なお、ステップS116からS118の処理は、ステップS121の後に行ってもよい。また、図26に示すように、ステップS119からS121に代えて、図2で説明したステップS14の処理を行ってもよい。   Note that the processing of steps S116 to S118 may be performed after step S121. Further, as shown in FIG. 26, the process of step S14 described in FIG. 2 may be performed instead of steps S119 to S121.

以上説明したように、上記各実施形態の各動作により、デジタルカメラ100、200、300で人物以外のポスター等を含む被写体を撮影した場合には、そのポスター等を人物として認識するのを防止することが可能となる。   As described above, when a subject including a poster other than a person is photographed by the digital cameras 100, 200, and 300 by the operations of the above-described embodiments, the poster is prevented from being recognized as a person. It becomes possible.

そして、顔画像に含まれる顔が人物であると判断された場合には、AE評価の重み付けを行ったり、該人物に優先的に合焦させたりすることで、より適切な撮影を行うことが可能となる。   When it is determined that the face included in the face image is a person, more appropriate shooting can be performed by weighting the AE evaluation or preferentially focusing on the person. It becomes possible.

あるいは、人物であるか否かの判定結果を表す表示を表示面に表示することもできる。例えば、図16に示すように、いわゆるスルー画像に、人物であると判定された被写体を点線矩形枠(例えば青色)で囲って表示し、人物でないと判定された被写体を点線矩形枠(例えば赤色)で囲って表示することが考えられる。あるいは、人物であると判定された被写体のみを矩形枠で囲って表示することも考えられる。   Or the display showing the determination result of whether it is a person can also be displayed on a display surface. For example, as shown in FIG. 16, a subject determined to be a person is displayed in a so-called through image surrounded by a dotted rectangular frame (for example, blue), and a subject determined not to be a person is displayed as a dotted rectangular frame (for example, red). ). Alternatively, only a subject determined to be a person may be surrounded and displayed by a rectangular frame.

なお、デジタルカメラ100にジャイロ、加速度センサ、GPS、電子コンパス等のカメラ自体の変位を検知する手段を設け、これによりデジタルカメラ100が動いた分を補正して、被写体の特徴点の変位の検知を行うことも考えられる。   The digital camera 100 is provided with means for detecting the displacement of the camera itself, such as a gyroscope, an acceleration sensor, a GPS, and an electronic compass, thereby correcting the amount of movement of the digital camera 100 and detecting the displacement of the feature point of the subject. Can also be considered.

上記実施形態はあらゆる点で単なる例示にすぎない。これらの記載によって本発明は限定的に解釈されるものではない。本発明はその精神または主要な特徴から逸脱することなく他の様々な形で実施することができる。   The above embodiment is merely an example in all respects. The present invention is not construed as being limited to these descriptions. The present invention can be implemented in various other forms without departing from the spirit or main features thereof.

本発明の第一実施形態であるデジタルカメラの構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the digital camera which is 1st embodiment of this invention. 第一実施形態のデジタルカメラの動作(その1)を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement (the 1) of the digital camera of 1st embodiment. 顔画像から抽出される特徴点について説明するための図である。It is a figure for demonstrating the feature point extracted from a face image. 特徴点の変化を説明するための図である。It is a figure for demonstrating the change of a feature point. 特徴点の変化を説明するための図である。It is a figure for demonstrating the change of a feature point. デジタルカメラの位置がずれる等により、今回のフレームと直前のフレームとで被写体が相対的に移動した状態を説明するための図である。It is a figure for demonstrating the state to which the to-be-photographed object moved relatively with the flame | frame of this time, and the flame | frame immediately before because the position of a digital camera shifted | deviated. デジタルカメラの位置がずれる等により、今回のフレームと直前のフレームとで被写体が相対的に移動した状態を説明するための図である。It is a figure for demonstrating the state to which the to-be-photographed object moved relatively with the flame | frame of this time, and the flame | frame immediately before because the position of a digital camera shifted | deviated. 顔画像から抽出される特徴点について説明するための図である。It is a figure for demonstrating the feature point extracted from a face image. 顔画像から抽出される特徴点について説明するための図である。It is a figure for demonstrating the feature point extracted from a face image. デジタルカメラ100の他の動作(その3)を説明するためのフローチャートである。12 is a flowchart for explaining another operation (part 3) of the digital camera 100; 顔画像の面積の求め方を説明するための図である。It is a figure for demonstrating how to obtain | require the area of a face image. デジタルカメラ100の他の動作(その4)を説明するためのフローチャートである。12 is a flowchart for explaining another operation (No. 4) of the digital camera. デジタルカメラ100の他の動作(その4)の変形例を説明するためのフローチャートである。12 is a flowchart for explaining a modification of another operation (part 4) of the digital camera. デジタルカメラ100の他の動作(その5)を説明するためのフローチャートである。12 is a flowchart for explaining another operation (No. 5) of the digital camera. デジタルカメラ100の内部メモリ(RAM等の記憶手段)に、特徴点抽出部30により抽出された顔の特徴点と人物判別部32により判定された結果とを対応づけて格納した状態を模式的に説明するための図である。A state in which the facial feature points extracted by the feature point extraction unit 30 and the results determined by the person determination unit 32 are stored in the internal memory (a storage unit such as a RAM) of the digital camera 100 is schematically shown. It is a figure for demonstrating. 人物である可否かの判定結果を表す表示の例である。It is an example of the display showing the determination result of whether it is a person. 本発明の第二実施形態であるデジタルカメラの構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the digital camera which is 2nd embodiment of this invention. 第一実施形態のデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera of 1st embodiment. 本発明の第三実施形態であるデジタルカメラの構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the digital camera which is 3rd embodiment of this invention. デジタルカメラ300の他の動作(その1)を説明するためのフローチャートである。6 is a flowchart for explaining another operation (part 1) of the digital camera 300; 顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する方法について説明するための図である。It is a figure for demonstrating the method to correct | amend the influence of zoom magnification to the image area corresponding to the feature point of a face image. 顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する方法について説明するための図である。It is a figure for demonstrating the method to correct | amend the influence of zoom magnification to the image area corresponding to the feature point of a face image. 顔画像の特徴点に対応する画像エリアにズーム倍率の影響を補正する方法について説明するための図である。It is a figure for demonstrating the method to correct | amend the influence of zoom magnification to the image area corresponding to the feature point of a face image. 第三実施形態のデジタルカメラの動作(その2)を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement (the 2) of the digital camera of 3rd embodiment. 第三実施形態のデジタルカメラの動作(その3)を説明するためのフローチャートである。It is a flowchart for demonstrating the operation | movement (the 3) of the digital camera of 3rd embodiment. 第三実施形態のデジタルカメラの動作(その3)の変形例を説明するためのフローチャートである。It is a flowchart for demonstrating the modification of operation | movement (the 3) of the digital camera of 3rd embodiment.

符号の説明Explanation of symbols

10…レンズ、11…シャッタ、13…光学フィルタ、14…撮像素子、15…レンズ駆動部、16…シャッタ駆動部、17…絞り駆動部、19…撮像素子駆動部、20…アナログ信号処理部、21…A/D変換器、22…デジタル信号処理部、23…表示部、24…D/A変換部、25…記録再生信号処理部、26…外部メモリ、27…AE演算部、28…AF演算部、29…顔画像抽出部、30…特徴点抽出部、31…特徴点変化検知部、32…人物判別部、33…人物抽出部、34…操作部、41…発光素子駆動部、42…発光素子、43…光学フィルタ、44…撮像素子駆動部、45…受光素子、46…距離演算部、47…画像照合部、50…ズーム倍率演算部、100、200、300…デジタルカメラ DESCRIPTION OF SYMBOLS 10 ... Lens, 11 ... Shutter, 13 ... Optical filter, 14 ... Image sensor, 15 ... Lens drive part, 16 ... Shutter drive part, 17 ... Diaphragm drive part, 19 ... Image sensor drive part, 20 ... Analog signal processing part, DESCRIPTION OF SYMBOLS 21 ... A / D converter, 22 ... Digital signal processing part, 23 ... Display part, 24 ... D / A conversion part, 25 ... Recording / reproduction signal processing part, 26 ... External memory, 27 ... AE calculating part, 28 ... AF Arithmetic unit, 29 ... face image extraction unit, 30 ... feature point extraction unit, 31 ... feature point change detection unit, 32 ... person discrimination unit, 33 ... person extraction unit, 34 ... operation unit, 41 ... light emitting element drive unit, 42 DESCRIPTION OF SYMBOLS ... Light emitting element, 43 ... Optical filter, 44 ... Image pick-up element drive part, 45 ... Light receiving element, 46 ... Distance calculating part, 47 ... Image collation part, 50 ... Zoom magnification calculating part, 100, 200, 300 ... Digital camera

Claims (6)

光電変換素子を含む撮像素子と、
前記撮像素子の出力信号から画像データを生成する画像データ生成手段と、
前記画像データ生成手段により生成された画像データから顔を含む顔画像を抽出する顔画像抽出手段と、
前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された顔の特徴点の経時的な変化を検出する特徴点変化検出手段と、
前記特徴点変化検出手段により検出された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定する人物判定手段と、
を備えることを特徴とするデジタルカメラ。
An image sensor including a photoelectric conversion element;
Image data generating means for generating image data from an output signal of the image sensor;
A face image extracting means for extracting a face image including a face from the image data generated by the image data generating means;
Feature point extracting means for extracting a feature point of a face included in the face image from the face image extracted by the face image extracting means;
A feature point change detecting means for detecting a change over time of the facial feature points extracted by the feature point extracting means;
A person determination unit for determining whether or not a face included in the face image extracted by the face image extraction unit is a person based on a temporal change in the feature point of the face detected by the feature point change detection unit; ,
A digital camera comprising:
前記特徴点抽出手段は、前記顔画像抽出手段により抽出された顔画像から該顔画像に含まれる顔の輪郭の特徴点を抽出し、
前記特徴点変化検出手段は、前記特徴点抽出手段により抽出された前記顔の輪郭の経時的な特徴点の変化に基づいて、前記特徴点抽出手段により抽出された前記顔の特徴点の手ぶれ量を補正し、
前記人物判定手段は、前記特徴点変化検出手段により補正された顔の特徴点の経時的な変化に基づいて、前記顔画像抽出手段により抽出された顔画像に含まれる顔が人物か否かを判定することを特徴とする請求項1に記載のデジタルカメラ。
The feature point extracting unit extracts a feature point of a face outline included in the face image from the face image extracted by the face image extracting unit;
The feature point change detecting means is a camera shake amount of the facial feature point extracted by the feature point extracting means based on a change in the feature point with time of the contour of the face extracted by the feature point extracting means. To correct
The person determination means determines whether or not the face included in the face image extracted by the face image extraction means is a person based on the change over time of the facial feature points corrected by the feature point change detection means. The digital camera according to claim 1, wherein the determination is made.
前記顔画像抽出手段により抽出された顔画像の面積を検出する面積検出手段をさらに備え、
特徴点変化検出手段、及び人物判定手段は、前記面積検出手段により検出された面積が一定値を越えた場合に、前記各処理を実行することを特徴とする請求項1に記載のデジタルカメラ。
Further comprising area detection means for detecting the area of the face image extracted by the face image extraction means;
The digital camera according to claim 1, wherein the feature point change detection unit and the person determination unit execute the processes when the area detected by the area detection unit exceeds a certain value.
前記顔画像抽出手段により抽出された顔画像に含まれる顔に対して優先的にフォーカスさせるフォーカス手段をさらに備え、
前記特徴点変化検出手段、及び判定手段は、前記フォーカス手段によるフォーカス位置が広角側の所定位置に位置している場合に、前記各処理を実行することを特徴とする請求項1に記載のデジタルカメラ。
A focus unit that preferentially focuses on a face included in the face image extracted by the face image extraction unit;
2. The digital according to claim 1, wherein the feature point change detection unit and the determination unit execute the processes when a focus position by the focus unit is located at a predetermined position on the wide-angle side. camera.
前記特徴点抽出手段により抽出された顔の特徴点と前記人物判定手段により判定された結果とを対応づけて記憶する記憶手段と、
前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されているか否かを判定するメモリ内判定手段と、
前記メモリ内判定手段により前記特徴点抽出手段により新たに抽出された顔の特徴点が前記記憶手段に記憶されていると判定された場合には、前記記憶手段から該顔の特徴点に対応づけて記憶されている判定結果を読み出すことを特徴とする請求項1に記載のデジタルカメラ。
Storage means for storing the facial feature points extracted by the feature point extraction means in association with the results determined by the person determination means;
In-memory determination means for determining whether or not the feature points of the face newly extracted by the feature point extraction means are stored in the storage means;
When it is determined that the feature point of the face newly extracted by the feature point extraction unit is stored in the storage unit by the determination unit in the memory, the feature point is associated with the face feature point from the storage unit The digital camera according to claim 1, wherein the determination result stored in the step is read out.
前記人物判定手段による判定結果を表す表示を表示面に表示する表示手段をさらに備えることを特徴とする請求項1に記載のデジタルカメラ。   The digital camera according to claim 1, further comprising a display unit that displays a display representing a determination result by the person determination unit on a display surface.
JP2007021887A 2007-01-31 2007-01-31 Digital camera Pending JP2008187677A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007021887A JP2008187677A (en) 2007-01-31 2007-01-31 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007021887A JP2008187677A (en) 2007-01-31 2007-01-31 Digital camera

Publications (1)

Publication Number Publication Date
JP2008187677A true JP2008187677A (en) 2008-08-14

Family

ID=39730383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007021887A Pending JP2008187677A (en) 2007-01-31 2007-01-31 Digital camera

Country Status (1)

Country Link
JP (1) JP2008187677A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109996035A (en) * 2018-01-02 2019-07-09 英西图公司 For generating the camera apparatus and correlation technique of machine vision data
US11620997B2 (en) 2018-03-27 2023-04-04 Sony Corporation Information processing device and information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109996035A (en) * 2018-01-02 2019-07-09 英西图公司 For generating the camera apparatus and correlation technique of machine vision data
CN109996035B (en) * 2018-01-02 2023-10-24 英西图公司 Apparatus and method for enhancing monitoring image analysis
US11620997B2 (en) 2018-03-27 2023-04-04 Sony Corporation Information processing device and information processing method

Similar Documents

Publication Publication Date Title
KR101034109B1 (en) Image capture apparatus and computer readable recording medium storing with a program
US7791668B2 (en) Digital camera
JP4315148B2 (en) Electronic camera
US8885090B2 (en) Imaging apparatus and autofocus control method thereof
JP5087856B2 (en) Electronic camera
US8411159B2 (en) Method of detecting specific object region and digital camera
US20070269196A1 (en) System for and method of taking image
JP2006211139A (en) Imaging apparatus
JP5115210B2 (en) Imaging device
JP2009033238A (en) Imaging apparatus
JP2008118387A (en) Imaging device
JP5087936B2 (en) camera
JP5615756B2 (en) Imaging apparatus and imaging program
JP2014235224A (en) Imaging device and control program
JP2015012482A (en) Image processing apparatus and image processing method
JP2010091669A (en) Imaging device
JP4953770B2 (en) Imaging device
JP2008090059A (en) Imaging apparatus and autofocus control method therefor
JP4771536B2 (en) Imaging device and method of selecting face as main subject
JP5183441B2 (en) Imaging device
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2008187677A (en) Digital camera
JP2008028890A (en) Imaging apparatus, imaging method, and imaging program
JP5423851B2 (en) Electronic camera
JP5093178B2 (en) Electronic camera