JP2009037540A - Imaging device and program therefor - Google Patents

Imaging device and program therefor Download PDF

Info

Publication number
JP2009037540A
JP2009037540A JP2007203216A JP2007203216A JP2009037540A JP 2009037540 A JP2009037540 A JP 2009037540A JP 2007203216 A JP2007203216 A JP 2007203216A JP 2007203216 A JP2007203216 A JP 2007203216A JP 2009037540 A JP2009037540 A JP 2009037540A
Authority
JP
Japan
Prior art keywords
face
data
dimensional
feature data
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007203216A
Other languages
Japanese (ja)
Other versions
JP5088612B2 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007203216A priority Critical patent/JP5088612B2/en
Publication of JP2009037540A publication Critical patent/JP2009037540A/en
Application granted granted Critical
Publication of JP5088612B2 publication Critical patent/JP5088612B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device for enhancing precision of face recognition, and to provide a program therefor. <P>SOLUTION: This imaging device calculates respectively feature data of all the imaged subjects, from a plurality of imaged frame image data (S11). The imaging device generates three-dimensional models of all the subjects, based on the feature data of the calculated frame image data (S12). The imaging device compares collates the generated three-dimensional models with respective kinds of recorded three-dimensional face data (S13). The imaging device determines whether any of the three-dimensional face data among the plural kinds of three-dimensional face data of the subject matches the generated three-dimensional models of all the subjects with a predetermined level or higher (S14). The imaging device determines an area on the frame image data corresponding to the portion with matching degree of the prescribed value or more, as a face area, when determining the portion with matching degree of the prescribed value or more in the step S14, thereby detecting a face (S15). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、顔を認識する機能を有した撮像装置及びそのプログラムに関する。   The present invention relates to an imaging device and a program thereof, and more particularly to an imaging device having a function of recognizing a face and a program thereof.

近年、電子カメラ等の撮像装置においては、被写体の顔を認識する技術が登場したことにより、該検出された顔に対してピントを合わせたり、顔が適正露出となるように露出条件を設定する技術がある(特許文献1)。   In recent years, with the advent of technology for recognizing a subject's face in an imaging device such as an electronic camera, the detected face is focused and exposure conditions are set so that the face is properly exposed. There is technology (Patent Document 1).

公開特許公報 特開2007−081991JP Patent Publication No. 2007-081991

しかしながら、従来の顔認識は、人間の顔、それも正面の顔などある特定の向きから撮像された場合のみを対象としており、横顔やサングラスの装着時などは認識することができなかった。また、人間以外の顔、例えば、猫や犬などの顔は認識することができなかった。   However, the conventional face recognition is intended only when the human face is taken from a specific direction such as a front face, and cannot be recognized when wearing a side face or sunglasses. Further, faces other than humans, such as cats and dogs, could not be recognized.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、顔認識の精度を向上させることができる撮像装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and an object thereof is to provide an imaging apparatus capable of improving the accuracy of face recognition and a program therefor.

上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、
前記撮像手段により撮像された同一被写体を含む複数の画像データに基づいて、該被写体の3次元モデルを生成する3次元モデル生成手段と、
前記3次元モデル生成手段により生成された被写体の3次元モデルと、所定の顔データとを用いて、該撮像された画像データ内にある顔を認識する3次元顔認識手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image pickup apparatus according to the first aspect of the present invention comprises an image pickup means for picking up an image of a subject
3D model generation means for generating a 3D model of the subject based on a plurality of image data including the same subject imaged by the imaging means;
3D face recognition means for recognizing a face in the imaged image data using the 3D model of the object generated by the 3D model generation means and predetermined face data;
It is provided with.

また、例えば、請求項2に記載されているように、前記3次元モデル生成手段は、
同一被写体に対して撮影角度の異なる複数の画像データに基づいて、該被写体の3次元モデルを生成するようにしてもよい。
Further, for example, as described in claim 2, the three-dimensional model generation unit includes:
A three-dimensional model of the subject may be generated based on a plurality of image data with different shooting angles with respect to the same subject.

また、例えば、請求項3に記載されているように、前記3次元モデル生成手段は、
前記撮像手段により撮像された画像データ毎に、被写体の特徴データを算出し、該算出した特徴データに基づいて、該被写体の3次元モデルを生成するようにしてもよい。
Further, for example, as described in claim 3, the three-dimensional model generation means includes:
For each piece of image data picked up by the image pickup means, subject feature data may be calculated, and a three-dimensional model of the subject may be generated based on the calculated feature data.

また、例えば、請求項4に記載されているように、前記3次元顔認識手段は、
前記生成手段により生成された被写体の3次元モデルと、所定の立体顔データとを比較照合することにより、該撮像された画像データ内にある顔を認識するようにしてもよい。
For example, as described in claim 4, the three-dimensional face recognition unit includes:
A face in the captured image data may be recognized by comparing and collating the three-dimensional model of the subject generated by the generating unit with predetermined stereoscopic face data.

また、例えば、請求項5に記載されているように、前記3次元顔認識手段は、
前記3次元モデル生成手段により生成された被写体の3次元モデルの中に、前記所定の立体顔データと所定の範囲内で一致する部分に対応する前記撮像手段により撮像された画像データの領域に顔があると認識するようにしてもよい。
For example, as described in claim 5, the three-dimensional face recognition unit includes:
In the three-dimensional model of the subject generated by the three-dimensional model generation means, a face appears in the area of the image data imaged by the imaging means corresponding to a portion that matches the predetermined stereoscopic face data within a predetermined range. You may make it recognize that there is.

また、例えば、請求項6に記載されているように、前記生成手段により生成された被写体の3次元モデルから、複数の異なる向きから見た2次元の被写体の特徴データを算出していく特徴データ算出手段を備え、
前記3次元顔認識手段は、
前記特徴データ算出手段により順次算出された被写体の特徴データと、所定の平面顔データとを比較照合していくことにより、該撮像された画像データ内にある顔を認識するようにしてもよい。
For example, as described in claim 6, feature data for calculating feature data of a two-dimensional subject viewed from a plurality of different directions from a three-dimensional model of the subject generated by the generation unit A calculation means,
The three-dimensional face recognition means
A face in the captured image data may be recognized by comparing and comparing the subject feature data sequentially calculated by the feature data calculation means with predetermined plane face data.

また、例えば、請求項7に記載されているように、前記3次元顔認識手段は、
前記特徴データ算出手段により算出された被写体の特徴データの中に、所定の平面顔データと所定の範囲内で一致する特徴データがある場合は、該特徴データに対応する前記撮像手段により撮像された画像データの領域に顔があると認識するようにしてもよい。
For example, as described in claim 7, the three-dimensional face recognition unit includes:
If the feature data of the subject calculated by the feature data calculation unit includes feature data that matches predetermined plane face data within a predetermined range, the feature data is captured by the imaging unit corresponding to the feature data You may make it recognize that there exists a face in the area | region of image data.

また、例えば、請求項8に記載されているように、前記特徴データ算出手段は、
前記3次元顔認識手段により顔が認識された場合は、2次元の被写体の特徴データの算出を終了するようにしてもよい。
Further, for example, as described in claim 8, the feature data calculation means includes:
When the face is recognized by the three-dimensional face recognition means, the calculation of the feature data of the two-dimensional subject may be terminated.

また、例えば、請求項9に記載されているように、前記撮像手段により撮像された1枚の画像データと、2次元の顔データとを比較照合することにより該画像データ内にある顔を認識する2次元顔認識手段を備え、
前記3次元モデル生成手段は、
前記2次元顔認識手段により顔が認識されなかった場合は、前記撮像手段により撮像された複数の画像データに基づいて被写体の3次元モデルを生成し、
前記3次元顔認識手段は、
前記2次元顔認識手段により顔が認識されなかった場合は、前記3次元モデル生成手段により生成された被写体の3次元モデルと、所定の顔データとを用いて、撮像された画像データ内にある顔を認識するようにしてもよい。
For example, as described in claim 9, a face in the image data is recognized by comparing and collating one piece of image data picked up by the image pickup means with two-dimensional face data. 2D face recognition means
The three-dimensional model generation means includes
If the face is not recognized by the two-dimensional face recognition means, a three-dimensional model of the subject is generated based on a plurality of image data picked up by the image pickup means,
The three-dimensional face recognition means
If the face is not recognized by the two-dimensional face recognition means, it is in the imaged image data using the three-dimensional model of the subject generated by the three-dimensional model generation means and predetermined face data. You may make it recognize a face.

また、例えば、請求項10に記載されているように、前記3次元モデル生成手段は、
前記撮像手段により撮像された画像データの画角の中央領域、又は、ユーザによって指定された任意の領域、又は、肌色成分を有する領域の画像データに基づいて、被写体の3次元モデルを生成するようにしてもよい。
For example, as described in claim 10, the three-dimensional model generation means includes
A three-dimensional model of a subject is generated based on image data of a central area of an angle of view of image data captured by the imaging means, an arbitrary area specified by a user, or an area having a skin color component. It may be.

また、例えば、請求項11に記載されているように、前記所定の顔データは、
所定の種類の被写体の顔データ、又は、複数の種類の被写体の顔データ、又は1又は2以上の人物の顔データであるようにしてもよい。
For example, as described in claim 11, the predetermined face data is
It may be face data of a predetermined type of subject, face data of a plurality of types of subjects, or face data of one or more persons.

また、例えば、請求項12に記載されているように、前記3次元顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔を検出するようにしてもよい。
For example, as described in claim 12, the three-dimensional face recognition means includes:
You may make it detect the face in the image data imaged by the said imaging means.

また、例えば、請求項13に記載されているように、前記3次元顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔が誰の顔であるかを個人認識するようにしてもよい。
For example, as described in claim 13, the three-dimensional face recognition unit includes:
The person in the image data picked up by the image pickup means may be personally recognized.

また、例えば、請求項14に記載されているように、前記撮像手段により撮像された1枚の画像データと、2次元の顔データとを比較照合することにより顔を検出する2次元顔検出手段を備え、
前記3次元モデル生成手段は、
前記2次元顔検出手段により顔が検出された場合は、前記撮像手段により撮像された各画像データの該検出された顔の領域の画像データに基づいて、顔の3次元モデルを生成し、
前記3次元顔認識手段は、
前記3次元モデル生成手段により生成された顔の3次元モデルと、所定の顔データとを用いて、該撮像された画像データ内にある顔が誰の顔であるかを個人認識するようにしてもよい。
Further, for example, as described in claim 14, two-dimensional face detection means for detecting a face by comparing and collating one piece of image data picked up by the image pickup means with two-dimensional face data With
The three-dimensional model generation means includes
When a face is detected by the two-dimensional face detection means, a three-dimensional model of the face is generated based on the image data of the detected face area of each image data imaged by the imaging means,
The three-dimensional face recognition means
By using the three-dimensional model of the face generated by the three-dimensional model generation means and predetermined face data, it is possible to personally recognize who the face in the captured image data is. Also good.

上記目的達成のため、請求項15記載の発明による撮像装置は、被写体を撮像する撮像手段と、
前記撮像手段により撮像された1枚の画像データから被写体の特徴データを算出する特徴データ算出手段と、
所定の立体顔データから、2次元の顔の特徴データを算出していく顔特徴データ算出手段と、
前記顔特徴データ算出手段により順次算出された顔の特徴データと、前記特徴データ算出手段により算出された被写体の特徴データとを比較照合することにより、前記撮像手段により撮像された1枚の画像データ内にある顔を認識する顔認識手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image pickup apparatus according to the invention described in claim 15 includes image pickup means for picking up an image of a subject,
Feature data calculating means for calculating feature data of a subject from one piece of image data picked up by the image pickup means;
Face feature data calculating means for calculating feature data of a two-dimensional face from predetermined three-dimensional face data;
One piece of image data picked up by the image pickup means by comparing the face feature data sequentially calculated by the face feature data calculation means with the feature data of the subject calculated by the feature data calculation means. A face recognition means for recognizing a face inside,
It is provided with.

また、例えば、請求項16に記載されているように、前記顔特徴データ算出手段は、
前記所定の立体顔データから、異なる向きから見た2次元の顔の特徴データを算出していくようにしてもよい。
Further, for example, as described in claim 16, the facial feature data calculation means includes:
Two-dimensional facial feature data viewed from different directions may be calculated from the predetermined three-dimensional face data.

また、例えば、請求項17に記載されているように、前記顔特徴データ算出手段は、
前記所定の立体顔データから、異なる表情の2次元の顔の特徴データを算出していくようにしてもよい。
For example, as described in claim 17, the facial feature data calculation unit includes:
Two-dimensional facial feature data with different facial expressions may be calculated from the predetermined three-dimensional face data.

また、例えば、請求項18に記載されているように、前記顔認識手段は、
前記特徴データ算出手段により算出された被写体の特徴データの中に、前記顔特徴データ算出手段により算出された顔の特徴データと所定の範囲内で一致する特徴データがある場合には、該一致した特徴データの部分に顔があると認識するようにしてもよい。
For example, as described in claim 18, the face recognition means includes
If the subject feature data calculated by the feature data calculation means includes feature data that matches the face feature data calculated by the face feature data calculation means within a predetermined range, the matching data You may make it recognize that there exists a face in the part of feature data.

また、例えば、請求項19に記載されているように、前記顔特徴データ算出手段は、
前記顔認識手段により顔が認識された場合は、2次元の顔の特徴データの算出を終了するようにしてもよい。
Further, for example, as described in claim 19, the facial feature data calculation unit includes:
When the face is recognized by the face recognition means, the calculation of the two-dimensional face feature data may be terminated.

また、例えば、請求項20に記載されているように、前記特徴データ算出手段は、
前記撮像手段により撮像された1枚の画像データの画角の中央領域、又は、ユーザによって指定された任意の領域、又は、肌色成分を有する領域の画像データから被写体の特徴データを算出するようにしてもよい。
Further, for example, as described in claim 20, the feature data calculation unit includes:
The feature data of the subject is calculated from the image data of the central area of the angle of view of one piece of image data captured by the imaging means, or an arbitrary area specified by the user, or an area having a skin color component. May be.

また、例えば、請求項21に記載されているように、所定の立体顔データは、
所定の種類の被写体の立体顔データ、若しくは複数の種類の被写体の立体顔データ、又は、1又は2以上の人物の立体顔データであるようにしてもよい。
For example, as described in claim 21, the predetermined three-dimensional face data is
The three-dimensional face data of a predetermined type of subject, the three-dimensional face data of a plurality of types of subjects, or the three-dimensional face data of one or more persons may be used.

また、例えば、請求項22に記載されているように、前記顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔を検出するようにしてもよい。
For example, as described in claim 22, the face recognition means includes
You may make it detect the face in the image data imaged by the said imaging means.

また、例えば、請求項23に記載されているように、前記顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔が誰の顔であるかを個人認識するようにしてもよい。
Further, for example, as described in claim 23, the face recognition means includes:
The person in the image data picked up by the image pickup means may be personally recognized.

上記目的達成のため、請求項24記載の発明によるプログラムは、被写体を撮像する撮像処理と、
前記撮像処理により撮像された同一被写体を含む複数の画像データに基づいて、該被写体の3次元モデルを生成する3次元モデル生成処理と、
前記3次元モデル生成処理により生成された被写体の3次元モデルと、所定の顔データとを用いて、該撮像された画像データ内にある顔を認識する3次元顔認識処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
In order to achieve the above object, a program according to a twenty-fourth aspect of the present invention provides an imaging process for imaging a subject,
3D model generation processing for generating a 3D model of the subject based on a plurality of image data including the same subject captured by the imaging processing;
3D face recognition processing for recognizing a face in the captured image data using a 3D model of the subject generated by the 3D model generation processing and predetermined face data;
And each of the above processes is executed by a computer.

上記目的達成のため、請求項25記載の発明によるプログラムは、被写体を撮像する撮像処理と、
前記撮像処理により撮像された1枚の画像データから被写体の特徴データを算出する特徴データ算出処理と、
所定の立体顔データから、2次元の顔の特徴データを算出していく顔特徴データ算出処理と、
前記顔特徴データ算出処理により順次算出された顔の特徴データと、前記特徴データ算出処理により算出された被写体の特徴データとを比較照合することにより、前記撮像処理により撮像された1枚の画像データ内にある顔を認識する顔認識処理と、
を含み、上記各処理をコンピュータに実行させることを特徴とする。
In order to achieve the above object, a program according to the invention of claim 25 includes an imaging process for imaging a subject,
Feature data calculation processing for calculating feature data of a subject from one piece of image data captured by the imaging processing;
Face feature data calculation processing for calculating feature data of a two-dimensional face from predetermined three-dimensional face data;
One piece of image data captured by the imaging process by comparing and comparing the facial feature data sequentially calculated by the facial feature data calculation process and the feature data of the subject calculated by the feature data calculation process Face recognition processing for recognizing the face inside,
And having the computer execute the processes described above.

本願発明によれば、顔認識の精度を向上させることができる。   According to the present invention, the accuracy of face recognition can be improved.

以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[First embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes a photographing lens 2, a lens driving block 3, an aperture 4, a CCD 5, a driver 6, a TG (timing generator) 7, a unit circuit 8, an image generation unit 9, a CPU 10, a key input unit 11, a memory 12, a DRAM 13, A flash memory 14, an image display unit 15, and a bus 16 are provided.

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。   The photographing lens 2 includes a focus lens, a zoom lens, and the like that are constituted by a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 includes a focus motor and a zoom motor that drive the focus lens and the zoom lens along the optical axis direction, respectively, and a focus motor driver that drives the focus motor and the zoom motor according to a control signal sent from the CPU 10. And a zoom motor driver (not shown).

絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 10.
The diaphragm 4 is a mechanism that controls the amount of light that enters from the photographing lens 2.

CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。   The CCD 5 is driven by the driver 6 and photoelectrically converts the intensity of light of each color of the RGB value of the subject image for every fixed period and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a Bayer color filter and also functions as an electronic shutter. The shutter speed of the electronic shutter is controlled by the CPU 10 via the driver 6 and TG7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. An (Automatic Gain Control) circuit and an A / D converter that converts an analog image pickup signal after the automatic gain adjustment into a digital signal, the image pickup signal output from the CCD 5 passes through the unit circuit 8 as a digital signal. It is sent to the image generator 9.

画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。   The image generation unit 9 performs processing such as γ correction processing and white balance processing on the image data sent from the unit circuit 8, generates a luminance color difference signal (YUV data), and generates the generated luminance color difference. The image data of the signal is stored in the DRAM 13 (buffer memory). That is, the image generation unit 9 performs image processing on the image data output from the CCD 5.

CPU10は、CCD5への撮像制御、画像データの圧縮・伸張処理、フラッシュメモリ14への記録処理、画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU10はクロック回路を含み、タイマーとしての機能も有する。
特に、CPU10は、3次元のデータを用いて人の顔を認識する3次元顔認識手段101と、2次元のデータのみを用いて人の顔を認識する2次元顔認識手段102を有する。この3次元顔認識手段は101と2次元顔認識手段102は、画像データ内にある顔を検出する機能と、登録されている人物の顔が画像データ内にあるかを個人認識する機能を有する。つまり、顔検出と個人認識を総称して顔認識という。
The CPU 10 is a one-chip microcomputer that has functions of performing imaging control on the CCD 5, image data compression / expansion processing, recording processing on the flash memory 14, and image data display processing, and controls each part of the digital camera 1. . Further, the CPU 10 includes a clock circuit and has a function as a timer.
In particular, the CPU 10 includes a three-dimensional face recognition unit 101 that recognizes a human face using three-dimensional data, and a two-dimensional face recognition unit 102 that recognizes a human face using only two-dimensional data. The three-dimensional face recognition means 101 and the two-dimensional face recognition means 102 have a function of detecting a face in the image data and a function of personally recognizing whether a registered person's face is in the image data. . In other words, face detection and personal recognition are collectively referred to as face recognition.

キー入力部11は、半押し全押し可能なシャッタボタン、モード切替キー、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータ(被写体の種類毎(人、犬、猫等)の立体顔データ等)が記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
The key input unit 11 includes a plurality of operation keys such as a shutter button that can be half-pressed and fully pressed, a mode switching key, a cross key, and a SET key, and outputs an operation signal corresponding to a user key operation to the CPU 10.
The memory 12 stores a control program necessary for the CPU 10 to control each unit and necessary data (three-dimensional face data for each type of subject (people, dogs, cats, etc.)). Operates according to the program. The memory 12 is a rewritable nonvolatile memory.

DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
The DRAM 13 is used as a buffer memory for temporarily storing image data sent to the CPU 10 after being imaged by the CCD 5 and also as a working memory for the CPU 10.
The flash memory 14 is a recording medium that stores compressed image data.

画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。   The image display unit 15 includes a color LCD and its drive circuit, and displays the subject imaged by the CCD 5 as a through image when in a shooting standby state, and is read out from the flash memory 14 and decompressed when a recorded image is reproduced. The recorded image is displayed.

B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図2のフローチャートに従って説明する。
ユーザのモード切替キーの操作により、静止画撮影モードに設定されると、ステップS1で、CCD5に所定のフレームレートで被写体を撮像させる処理を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the embodiment will be described with reference to the flowchart of FIG.
When the still image shooting mode is set by the user's operation of the mode switching key, in step S1, the process of causing the CCD 5 to image a subject at a predetermined frame rate is started, and images are sequentially captured by the CCD 5 and generated by the image generation unit 9. The frame image data (YUV data) of the luminance / chrominance signal thus recorded is stored in the buffer memory (DRAM 13), and an image based on the stored frame image data is displayed on the image display unit 15, so-called through image. Start display.

次いで、ステップS2で、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
このとき、ユーザは、撮影したい被写体(メイン被写体)を画角内に収めて構図を決めてから撮影の準備を指示するためシャッタボタンを半押し操作する。
Next, in step S2, the CPU 10 determines whether or not the shutter button is half-pressed by the user. This determination is made based on whether or not an operation signal corresponding to a half-press operation of the shutter button is sent from the key input unit 11.
At this time, the user half-presses the shutter button in order to instruct preparation for photographing after placing the subject (main subject) to be photographed within the angle of view and determining the composition.

ステップS2で、シャッタボタンが半押しされていないと判断すると、半押しされるまでステップS2に留まり、シャッタボタンが半押しされたと判断すると、ステップS3に進み、CPU10の3次元顔認識手段101は、撮像された画像データの全領域に基づく3次元の顔検出処理を行う。この3次元の顔検出処理は、本発明の特徴部分となるCCD5により撮像されたフレーム画像データ内に人の顔や猫や犬等の動物の顔があるか否かを検出する処理のことで、後で具体的に説明する。   If it is determined in step S2 that the shutter button is not half-pressed, the process stays in step S2 until it is half-pressed. If it is determined that the shutter button is half-pressed, the process proceeds to step S3, and the three-dimensional face recognition unit 101 of the CPU 10 Then, a three-dimensional face detection process based on the entire area of the imaged image data is performed. This three-dimensional face detection process is a process for detecting whether or not there is a human face or an animal face such as a cat or dog in the frame image data captured by the CCD 5 which is a characteristic part of the present invention. A specific description will be given later.

3次元の顔検出処理を行うと、ステップS4に進み、CPU10は、3次元の顔検出処理により顔が検出されたか否かを判断する。
ステップS4で顔が検出されたと判断すると、ステップS5に進み、CPU10は、該検出された顔に対してコントラスト検出方式によるAF処理を行ってステップS7に進む。このコントラスト検出方式によるAF処理とは、周知技術なので詳しくは述べないが、要は、フォーカス対象となる領域の画像データからコントラスト成分を検出し、その波形を解釈して、つまり、高周波成分が最も大きくなるレンズの位置に、フォーカスレンズを合わせてピントを合わせるというものである。
When the three-dimensional face detection process is performed, the process proceeds to step S4, and the CPU 10 determines whether or not a face is detected by the three-dimensional face detection process.
If it is determined in step S4 that a face has been detected, the process proceeds to step S5, and the CPU 10 performs an AF process using the contrast detection method on the detected face, and then proceeds to step S7. The AF processing by this contrast detection method is a well-known technique and will not be described in detail, but the point is that the contrast component is detected from the image data of the area to be focused and the waveform is interpreted, that is, the high frequency component is the most. The focus lens is brought into focus at the position of the larger lens.

一方、ステップS4で顔が検出されなかったと判断すると、ステップS6に進み、CPU10は、所定の領域に対してコントラスト検出方式によるAF処理を行って、ステップS7に進む。   On the other hand, if it is determined in step S4 that no face has been detected, the process proceeds to step S6, where the CPU 10 performs an AF process using a contrast detection method on a predetermined area, and then proceeds to step S7.

ステップS7に進むと、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS7で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS7に留まり、シャッタボタンが全押しされたと判断すると、ステップS8に進み、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録する処理を行って、ステップS1に戻る。
In step S7, the CPU 10 determines whether or not the shutter button has been fully pressed by the user. This determination is made based on whether or not an operation signal corresponding to the full pressing operation of the shutter button is sent from the key input unit 11.
If it is determined in step S7 that the shutter button is not fully pressed, the process stays in step S7 until the shutter button is fully pressed. If it is determined that the shutter button is fully pressed, the process proceeds to step S8, and the CPU 10 performs still image shooting processing. Then, the process of compressing the still image data obtained by the photographing process and recording it in the flash memory 14 is performed, and the process returns to step S1.

C.顔検出処理の動作について
次に、本発明の特徴となる顔検出処理の動作を説明する。従来は、単に2次元的に顔検出処理を行っていたが、つまり、撮像された画像データに基づく2次元の被写体の特徴データと2次元の顔データとを比較照合することにより、該画像データ内にある顔を検出していたが、本発明の顔検出処理は、3次元のデータを用いて顔を検出するというものである。
ここでは、3次元のデータを用いて顔を検出する動作を2つ紹介するが、これに限られるものではなく、要は、3次元データを用いて被写体の顔を検出するものであればよい。
C. Next, the operation of the face detection process, which is a feature of the present invention, will be described. Conventionally, face detection processing is simply performed two-dimensionally. That is, the image data is obtained by comparing and comparing feature data of a two-dimensional subject based on captured image data with two-dimensional face data. The face detection process of the present invention is to detect a face using three-dimensional data.
Here, two operations for detecting a face using three-dimensional data are introduced. However, the present invention is not limited to this, and any operation may be used as long as it detects a face of a subject using three-dimensional data. .

C−1.1つ目の顔検出処理について
まず、1つ目の全領域に基づく3次元の顔検出処理の動作を図3のフローチャートにしたがって説明する。
図2のステップS2で、シャッタボタンが半押しされたと判断して、ステップS3に進むと、図3のステップS11に進み、CPU10の3次元顔認識手段101は、シャッタボタン半押し直前に撮像された複数枚のフレーム画像データから、全被写体の特徴データ(2次元の特徴データ)をそれぞれ算出する。ここでいう「全被写体」とは、CCD5によって撮像された全ての被写体のことを指す。例えば、建物の前に立っているメイン被写体である人を撮像した場合は、全被写体は建物と人ということになる。
C-1.1 First Face Detection Process First, the operation of the three-dimensional face detection process based on the entire first area will be described with reference to the flowchart of FIG.
If it is determined in step S2 in FIG. 2 that the shutter button has been half-pressed and the process proceeds to step S3, the process proceeds to step S11 in FIG. 3, and the three-dimensional face recognition unit 101 of the CPU 10 is imaged immediately before the shutter button is half-pressed. Then, feature data (two-dimensional feature data) of all subjects is calculated from the plurality of frame image data. Here, “all subjects” refers to all subjects imaged by the CCD 5. For example, when a person who is a main subject standing in front of a building is imaged, all the subjects are a building and a person.

ここで、CPU10は、シャッタボタンが半押しされるまで、少なくとも最新の複数枚のフレーム画像データをバッファメモリに保持させておく。例えば、5枚のフレーム画像データを保持する場合は、新たにフレーム画像データが撮像されると、該保持している5枚のフレーム画像データのうち、一番古いフレーム画像データを捨て、該新たなフレーム画像データを保持する。   Here, the CPU 10 holds at least the latest plurality of frame image data in the buffer memory until the shutter button is half-pressed. For example, in the case of holding five frame image data, when new frame image data is captured, the oldest frame image data of the held five frame image data is discarded, and the new frame image data is discarded. Retains frame image data.

また、フレーム画像データから算出される全被写体の特徴データとは、例えば、撮影された全被写体が建物とその前に立っている人の場合は、建物及び人の特徴点を複数抽出し、該抽出した特徴点の座標位置や相対位置関係等を数値化したデータのことをいう。この特徴点の抽出により、目、鼻、口、顔の輪郭等から顔の特徴点も複数抽出される。つまり、全被写体の特徴データは、顔だけではなく撮像された全ての全被写体の特徴点に基づいて数値化されたデータである。   Further, the feature data of all subjects calculated from the frame image data is, for example, when a photographed subject is a building and a person standing in front of it, a plurality of building and person feature points are extracted, Data obtained by digitizing the coordinate positions and relative positional relationships of extracted feature points. By extracting the feature points, a plurality of facial feature points are also extracted from the eyes, nose, mouth, face outline, and the like. That is, the feature data of all subjects is data digitized based on the feature points of not only the face but all of the captured subjects.

また、ユーザは、シャッタボタン半押し前に、メイン被写体を撮影する角度(撮影角度)を変えながら撮像する。これにより、異なる撮影角度で撮影された複数のフレーム画像がバッファメモリに保持されることになる。このとき、メイン被写体の画角内での位置を変えないで撮像した方が好ましい。
なお、シャッタボタン半押し直後に撮像された複数枚のフレーム画像データから、全被写体の特徴データをそれぞれ算出するようにしてもよい。この場合、シャッタボタンを半押した後に、メイン被写体を撮影する角度(撮影角度)を変えながら撮像することにより、異なる撮影角度で撮影された複数のフレーム画像がバッファメモリに保持されることになる。
In addition, the user captures an image while changing the angle (photographing angle) for photographing the main subject before half-pressing the shutter button. As a result, a plurality of frame images shot at different shooting angles are held in the buffer memory. At this time, it is preferable to take an image without changing the position of the main subject within the angle of view.
Note that feature data of all subjects may be calculated from a plurality of frame image data captured immediately after the shutter button is half-pressed. In this case, after half-pressing the shutter button, a plurality of frame images shot at different shooting angles are held in the buffer memory by changing the shooting angle (shooting angle) of the main subject. .

次いで、ステップS12で、3次元顔認識手段101は、該算出された各フレーム画像データの全被写体の特徴データに基づいて、全被写体の3次元モデルを生成する。
この3次元モデルの生成は、既に周知技術なので詳しく説明しないが、ある画像の特徴点と、該特徴点に対応する他の画像の特徴点とに基づいて、三角測量演算によって全被写体の3次元モデルを生成する(モデリング処理)。
図4は3次元モデルの生成過程を示すものであり、図4を見るとわかるように、被写体を複数の角度から撮影したフレーム画像データに基づいて、被写体の3次元モデルが生成されている。なお、ここでは、顔のみが撮像されたフレーム画像データに基づいて生成される3次元モデルの様子を示している。
Next, in step S12, the three-dimensional face recognition unit 101 generates a three-dimensional model of all subjects based on the feature data of all subjects of the calculated frame image data.
The generation of this three-dimensional model is already well-known technology and will not be described in detail. However, based on the feature points of an image and the feature points of another image corresponding to the feature points, the three-dimensional model of all subjects is obtained by triangulation calculation. Generate a model (modeling process).
FIG. 4 shows a generation process of a three-dimensional model. As can be seen from FIG. 4, a three-dimensional model of a subject is generated based on frame image data obtained by photographing the subject from a plurality of angles. Here, a state of a three-dimensional model generated based on frame image data obtained by capturing only a face is shown.

また、図5は、生成された被写体(ここでは顔のみ)の3次元モデルをサーフェスモデルの一種である多角形ポリゴン(ここでは、3角形ポリゴン)で表したときの様子を示す図である。
なお、サーフェスモデルでなく、ワイヤーフレームモデルやソリッドモデル等他の方法によって表すようにしてもよい。
FIG. 5 is a diagram showing a state in which the generated three-dimensional model of the subject (here, only the face) is represented by a polygon polygon (here, a triangular polygon) which is a kind of surface model.
In addition, you may make it represent with other methods, such as a wire frame model and a solid model, instead of a surface model.

次いで、ステップS13で、CPU10の3次元顔認識手段101は、該生成した全被写体の3次元モデルと、予めメモリ12に記録されている被写体の種類毎の立体顔データ(人、犬、猫等の種類毎の立体顔データ)とを比較照合する。この比較照合は、生成した全被写体の3次元モデルの中に立体顔データと一致する部分があるか否かを判断するためのものである。したがって、この比較照合は、生成された全被写体の3次元モデルの各部と立体顔モデルとを比較照合していく(サーチしていく)ことにより、各部との一致度を得る。この動作を、被写体の種類毎の立体顔データ毎に行なう。この生成されている全被写体の3次元モデルは、撮像された全ての被写体の3次元モデルを生成するため、例えば、建物とその前に立っている人を撮像した場合は、建物とその前に立っている人の3次元モデルを生成するので、該生成した3次元モデルの中に顔があるか否かを判断するために、全被写体の3次元モデルの各部と立体顔データとを比較照合していく。   Next, in step S13, the three-dimensional face recognition unit 101 of the CPU 10 generates a three-dimensional model of all the generated subjects and three-dimensional face data (person, dog, cat, etc.) for each type of subject recorded in the memory 12 in advance. 3D face data for each type). This comparison and collation is for determining whether or not there is a portion that matches the 3D face data in the generated three-dimensional model of all subjects. Therefore, in this comparison and collation, each part of the generated three-dimensional model and the three-dimensional model are compared and collated (searched) to obtain a degree of coincidence with each part. This operation is performed for each 3D face data for each type of subject. Since the generated 3D model of all subjects generates a 3D model of all captured subjects, for example, when a building and a person standing in front of it are imaged, Since a 3D model of a standing person is generated, in order to determine whether or not there is a face in the generated 3D model, each part of the 3D model of all subjects is compared with the 3D face data. I will do it.

次いで、ステップS14で、CPU10の3次元顔認識手段101は、該生成した全被写体の3次元モデルの中に、複数種類の被写体の立体顔データの何れかの立体顔データと所定値以上で一致する部分があるか否かを判断する。つまり、所定の範囲内で一致する部分があるか否かを判断することになる。   Next, in step S14, the 3D face recognition unit 101 of the CPU 10 matches the 3D face data of the 3D face data of a plurality of types of subjects with a predetermined value or more in the generated 3D model of all subjects. It is determined whether there is a part to be performed. That is, it is determined whether there is a matching part within a predetermined range.

ステップS14で、所定値以上で一致する部分があると判断した場合は、ステップS15に進み、CPU10の3次元顔認識手段101は、所定値以上で一致する部分を顔と判断し、該所定値以上で一致した部分に対応する撮像されたフレーム画像データ上の領域を顔領域とする。つまり、フレーム画像データ上の顔領域を検出する。   If it is determined in step S14 that there is a matching part with a predetermined value or more, the process proceeds to step S15, where the three-dimensional face recognition unit 101 of the CPU 10 determines the matching part with a predetermined value or more as a face, and the predetermined value The area on the captured frame image data corresponding to the matched part is defined as a face area. That is, the face area on the frame image data is detected.

この所定値以上で一致した部分に対応するフレーム画像データ上の領域とは、全被写体の3次元モデルの中で、一致する部分(顔部分)の特徴データに対応するフレーム画像データ上の領域であり、該特徴データに対応するフレーム画像データは複数あるので(複数枚のフレーム画像データに基づいて全被写体の3次元モデルを生成したため)、所定値以上で一致した部分に対応する、生成元となった複数のフレーム画像データのうち、直近に撮像されたフレーム画像データ上の領域であってもよいし、所定値以上で一致した部分に対応する生成元となった全てのフレーム画像データ上の領域から構成される領域であってもよい。   The area on the frame image data corresponding to the matching part at a predetermined value or more is the area on the frame image data corresponding to the feature data of the matching part (face part) in the three-dimensional model of all subjects. Yes, because there are a plurality of frame image data corresponding to the feature data (since a three-dimensional model of all subjects is generated based on a plurality of frame image data), Of the plurality of frame image data, the area may be an area on the most recently captured frame image data, or on all the frame image data that are generation sources corresponding to a portion that matches at a predetermined value or more. An area composed of areas may be used.

一方、ステップS14で、所定値以上で一致する部分がないと判断すると、ステップS16に進み、CPU10の3次元顔認識手段101は、撮像されたフレーム画像データ内に顔がないと判断する。
また、ステップS15で顔領域を検出すると、図2のステップS4で顔が検出できたと判断され、ステップS16で顔がないと判断すると、図2のステップS4で顔が検出できなかったと判断する。
On the other hand, if it is determined in step S14 that there is no matching portion equal to or greater than the predetermined value, the process proceeds to step S16, and the three-dimensional face recognition unit 101 of the CPU 10 determines that there is no face in the captured frame image data.
If a face area is detected in step S15, it is determined that a face has been detected in step S4 of FIG. 2, and if no face is detected in step S16, it is determined that a face has not been detected in step S4 of FIG.

このように、1つ目の顔検出処理は、同一被写体を撮像した複数の画像データから、全被写体の3次元モデルを生成し、種類毎の被写体の立体顔データと比較照合することにより顔を検出するので、顔検出の精度を向上させることができる。
例えば、メイン被写体の顔が横を向いていたり、サングラスを装着している場合であっても検出することができる。
また、被写体の種類毎の立体顔データと生成した3次元モデルとを比較照合するので、人の顔に限らず、犬や猫等の動物の顔等も検出することができる。例えば、馬など動物の顔は、見る角度が違うと極端に顔の形が変わってしまうが、3次元とすることにより、精度よく顔を検出することができる。
As described above, the first face detection process generates a three-dimensional model of all subjects from a plurality of image data obtained by imaging the same subject, and compares and compares the three-dimensional model with the subject's stereoscopic face data for each type. Since detection is performed, the accuracy of face detection can be improved.
For example, it can be detected even when the face of the main subject is facing sideways or wearing sunglasses.
Further, since the three-dimensional face data for each type of subject and the generated three-dimensional model are compared and collated, it is possible to detect not only human faces but also animal faces such as dogs and cats. For example, the face of an animal such as a horse changes its shape extremely if the viewing angle is different, but the face can be detected with high accuracy by using three dimensions.

C−2.2つ目の顔検出処理について
次に、2つ目の全領域に基づく3次元の顔検出処理の動作を図6のフローチャートにしたがって説明する。
図2のステップS2で、シャッタボタンが半押しされたと判断して、ステップS3に進むと、図6のステップS21に進み、CPU10の3次元顔認識手段101は、顔の向きを正面と設定する。
C-2.2 Second Face Detection Process Next, the operation of the three-dimensional face detection process based on the second whole area will be described with reference to the flowchart of FIG.
If it is determined in step S2 in FIG. 2 that the shutter button has been half-pressed and the process proceeds to step S3, the process proceeds to step S21 in FIG. 6, and the three-dimensional face recognition unit 101 of the CPU 10 sets the face orientation to the front. .

次いで、ステップS22で、CPU10の3次元顔認識手段101は、予めメモリ12に記録されている被写体の種類毎の立体顔データに基づいて、該設定された向きから見た各種類の被写体の顔の平面(2次元)画像データを生成する(レンダリング処理)。ここでは、設定されている向きは正面なので、種類毎の被写体の顔を正面から見た平面画像データを、被写体の種類毎の立体顔データから生成することになる。この立体的なものから平面画像データを生成する技術は周知技術なので詳しくは説明しないが、陰面消去や陰線消去などを行なうことによって行なわれる。   Next, in step S22, the three-dimensional face recognition unit 101 of the CPU 10 determines the face of each type of subject viewed from the set direction based on the three-dimensional face data for each type of subject recorded in the memory 12 in advance. Plane (two-dimensional) image data is generated (rendering process). Here, since the set direction is the front, plane image data in which the face of the subject for each type is viewed from the front is generated from the three-dimensional face data for each type of subject. The technology for generating planar image data from this three-dimensional image is well known and will not be described in detail, but is performed by performing hidden surface removal, hidden line removal, or the like.

次いで、ステップS23で、CPU10の3次元顔認識手段101は、該生成した被写体の種類毎の顔の平面画像データから、設定されている向きから見た被写体の種類毎の顔特徴データ(2次元の顔特徴データ)を算出する。
次いで、ステップS24で、CPU10の3次元顔認識手段101は、直近にCCD5により撮像されたフレーム画像データから、全被写体の特徴データ(2次元の特徴データ)を算出する。ここでいう「全被写体」とは、CCD5によって撮像された全ての被写体のことを指し、以下の説明でも同様である。
Next, in step S23, the three-dimensional face recognition unit 101 of the CPU 10 uses face feature data (two-dimensional) for each type of subject viewed from the set direction from the generated face plane image data for each type of subject. ) Is calculated.
Next, in step S24, the three-dimensional face recognition unit 101 of the CPU 10 calculates feature data (two-dimensional feature data) of all subjects from the frame image data recently captured by the CCD 5. Here, “all subjects” refers to all subjects imaged by the CCD 5, and the same applies to the following description.

次いで、ステップS25で、CPU10の3次元顔認識手段101は、ステップS23で算出された、設定されている向きから見た被写体の種類毎の顔特徴データと、ステップS24で算出された全被写体の特徴データとを比較照合する。この比較照合は、生成した全被写体の特徴データの中に顔特徴データと一致する部分かあるか否かを判断するためのものである。したがって、この比較照合は、生成された全被写体の特徴データの各部と顔特徴データとを比較照合していく(サーチしていく)ことにより、各部との一致度を得る。この動作を、被写体の種類毎の顔特徴データ毎に行なう。   Next, in step S25, the three-dimensional face recognition unit 101 of the CPU 10 calculates the facial feature data for each type of subject viewed from the set orientation calculated in step S23 and all the subjects calculated in step S24. Compare with feature data. This comparison and collation is for determining whether or not the generated feature data of all subjects includes a portion that matches the facial feature data. Therefore, in this comparison and collation, each part of the generated feature data of all subjects and the face feature data are compared and collated (searched) to obtain a degree of coincidence with each part. This operation is performed for each face feature data for each type of subject.

次いで、ステップS26で、CPU10の3次元顔認識手段101は、ステップS24で算出した全被写体の特徴データの中に、ステップS23で算出した被写体の種類毎の顔特徴データの何れかの顔特徴データと所定値以上で一致する部分(特徴データ)があるか否かを判断する。つまり、所定の範囲内で一致する部分があるか否かを判断することになる。   Next, in step S26, the three-dimensional face recognition unit 101 of the CPU 10 includes any one of the face feature data of the face feature data for each type of subject calculated in step S23 among the feature data of all subjects calculated in step S24. It is determined whether or not there is a portion (feature data) that matches with a predetermined value or more. That is, it is determined whether there is a matching part within a predetermined range.

ステップS26で、所定値以上で一致する部分があると判断した場合は、ステップS27に進み、CPU10の3次元顔認識手段101は、該所定値以上で一致する部分を顔と判断し、該部分に対応する、全被写体の特徴データの生成元となったフレーム画像データ上の領域を顔領域とする。つまり、フレーム画像データ上の顔領域を検出する。   If it is determined in step S26 that there is a matching part with a predetermined value or more, the process proceeds to step S27, and the three-dimensional face recognition unit 101 of the CPU 10 determines that the matching part with the predetermined value or more is a face. The area on the frame image data that is the generation source of the feature data of all the subjects corresponding to is a face area. That is, the face area on the frame image data is detected.

一方、ステップS26で、所定値以上で一致する部分がないと判断すると、ステップS28に進み、3次元顔認識手段101は、現在設定されている向きが最後の向きであるか否かを判断する。つまり、予め決められたすべての向きが設定されたか否かを判断する。
ステップS28で、設定されている向きが最後の向きでないと判断すると、ステップS29に進み、3次元顔認識手段101は、次の向きに設定して、ステップS22に戻る。例えば、現在設定されている向きが顔の正面の場合は、顔を斜め右前から見た向きと設定する。つまり、向きの角度を変える。
On the other hand, if it is determined in step S26 that there is no matching part equal to or greater than the predetermined value, the process proceeds to step S28, and the three-dimensional face recognition unit 101 determines whether or not the currently set direction is the last direction. . That is, it is determined whether or not all predetermined directions have been set.
If it is determined in step S28 that the set direction is not the last direction, the process proceeds to step S29, the three-dimensional face recognition unit 101 sets the next direction, and the process returns to step S22. For example, when the currently set direction is the front of the face, the face is set to the direction seen from the diagonally right front. In other words, the direction angle is changed.

一方、ステップS28で、設定されている向きが最後の向きであると判断すると、ステップS30に進み、3次元顔認識手段101は、撮像されたフレーム画像データ内に顔がないと判断する。
また、ステップS27で顔領域を検出すると、図2のステップS4で顔が検出できたと判断され、ステップS30で顔がないと判断すると、図2のステップS4で顔が検出できなかったと判断する。
On the other hand, if it is determined in step S28 that the set direction is the last direction, the process proceeds to step S30, and the three-dimensional face recognition unit 101 determines that there is no face in the captured frame image data.
If a face area is detected in step S27, it is determined that a face has been detected in step S4 of FIG. 2, and if no face is detected in step S30, it is determined that a face has not been detected in step S4 of FIG.

このように、2つ目の顔検出処理は、全被写体を撮像した1枚の画像データから算出された全被写体の特徴データと、予め記録されている被写体の種類毎の立体顔データから異なる向きから見た被写体の顔の平面画像データを生成していき、該生成された平面画像データから算出された被写体の特徴データと、を比較照合することにより顔を検出するので、顔検出の精度を向上させることができる。
例えば、被写体が犬や猫等の動物であったり、被写体が横を向いている場合であっても検出することができる。
また、1つ目の顔検出処理のように、撮像された複数の画像データから全被写体の3次元モデルを生成する必要は無いので処理負担を軽減させることができる。
As described above, the second face detection processing is performed in different directions from the feature data of all subjects calculated from one image data obtained by imaging all subjects and the three-dimensional face data for each type of subject recorded in advance. Since the face is detected by generating the plane image data of the face of the subject viewed from the image, and comparing the subject feature data calculated from the generated plane image data, the accuracy of the face detection is improved. Can be improved.
For example, even if the subject is an animal such as a dog or a cat, or the subject is facing sideways, it can be detected.
Further, unlike the first face detection process, it is not necessary to generate a three-dimensional model of all subjects from a plurality of captured image data, so that the processing load can be reduced.

[第2の実施の形態]
次に、第2の実施の形態について説明する。
上記第1の実施の形態においては、単に顔検出の場合について説明したが、第2の実施の形態においては、上記説明した顔検出処理の動作を、撮影された顔が具体的に誰であるか?を認識する個人認識の場合に適用するようにしてもよい。つまり、予め登録している人物の顔が撮像された画像データの中にあるか否かを個人認識することになる。なお、この個人認識の場合は、被写体の種類毎に顔データ(立体顔データ)を有するのではなく、被写体の種類を人に限定し、人物毎に顔データ(立体顔データ)を有する。
[Second Embodiment]
Next, a second embodiment will be described.
In the first embodiment, only the case of face detection has been described, but in the second embodiment, the face detection processing operation described above is specifically the person who has taken the face. ? You may make it apply in the case of the personal recognition which recognizes. That is, it is personally recognized whether or not the face of a person registered in advance is in the captured image data. In the case of this personal recognition, face data (three-dimensional face data) is not provided for each type of subject, but the type of subject is limited to a person, and face data (three-dimensional face data) is provided for each person.

上記第1の実施の形態では、検出される顔が複数の場合は、どこの顔をメイン被写体として特定していいのか分からないが、個人認識を行なう場合は、複数の顔が検出された場合であっても、登録されている人物の顔をメイン被写体として特定することができる。   In the first embodiment, when there are a plurality of detected faces, it is not known which face can be specified as the main subject. However, when performing personal recognition, a plurality of faces are detected. Even so, the face of the registered person can be specified as the main subject.

この人物の立体顔データは、登録モード等においてユーザが任意の人物の顔を登録することができる。登録する人物の立体顔データは、登録したい人物の顔を異なる角度から複数撮影し、該撮影された複数の画像データから3次元の顔データを生成して登録する。   This person's 3D face data allows the user to register the face of any person in the registration mode or the like. As the three-dimensional face data of a person to be registered, a plurality of faces of the person to be registered are photographed from different angles, and three-dimensional face data is generated from the photographed plurality of image data and registered.

この場合は、図2のステップS3は個人認識処理を行い、ステップS4では登録されている顔があるか否かを判断する。
また、個人認識処理の動作は、図3及び図6に示すフローチャートとほぼ同様であるが、この場合は、記録(登録)されている人物の立体顔データは、人の顔であることが大まかに認識できる程度の情報量ではなく、具体的に誰の顔であるかを認識できる程度の情報量が必要である。
In this case, step S3 in FIG. 2 performs personal recognition processing, and in step S4, it is determined whether there is a registered face.
The operation of the personal recognition process is almost the same as the flowcharts shown in FIGS. 3 and 6, but in this case, the recorded (registered) three-dimensional face data of a person is roughly a human face. It is necessary to have an amount of information that can be used to recognize who the face is.

また、図3のステップS11での算出も撮像された複数の画像データから誰の顔であるか具体的に識別できる程度の特徴データを算出する必要がある。この算出された特徴データに基づいて3次元モデルが生成されるからである。また、図6のステップS23の平面画像データからの顔特徴データの算出も、誰の顔であるかを具体的に認識できる程度の情報量が必要である。
そして、図3のステップS15、図6のステップS27は、該所定値以上で一致する部分に登録されている人物の顔があると認識し、顔領域を検出することになる。そして、図2のステップS5で、登録されている人物の顔に対してAF処理を行う。
In addition, in the calculation in step S11 in FIG. 3, it is necessary to calculate feature data that can specifically identify the face of a person from a plurality of captured image data. This is because a three-dimensional model is generated based on the calculated feature data. Also, the calculation of the face feature data from the planar image data in step S23 of FIG. 6 requires an amount of information that can specifically recognize who the face is.
Then, step S15 in FIG. 3 and step S27 in FIG. 6 recognize that there is a person's face registered in the matching part at the predetermined value or more, and detect the face area. Then, in step S5 of FIG. 2, AF processing is performed on the face of the registered person.

また、図3のステップS16、図6のステップS30は、登録されている人物がいないと判断する。このときは、図2のステップS5に進み、所定の領域に対してAF処理を行うようにしてもよいし、登録されている人物がいないと判断した場合は、個人認識処理により登録された人物の顔を認識することができなかったが顔を検出することができたか否かを判断し、顔が検出された場合は該検出した顔に対してAF処理を行い、顔が検出されなかった場合は所定の領域に対してAF処理を行うようにしてもよい。
これにより、個人認識の精度を向上させることができる。例えば、人物が横を向いている場合やサングラスをしている場合であっても、該人物が登録されている人物であるかを個人認識することできる。
Further, step S16 in FIG. 3 and step S30 in FIG. 6 determine that there is no registered person. In this case, the process proceeds to step S5 in FIG. 2, and AF processing may be performed on a predetermined area. If it is determined that there is no person registered, the person registered by the personal recognition process It was determined whether or not the face could be detected, but whether or not the face could be detected. If a face was detected, AF processing was performed on the detected face, and no face was detected. In such a case, AF processing may be performed on a predetermined area.
Thereby, the accuracy of personal recognition can be improved. For example, even when a person is facing sideways or wearing sunglasses, it is possible to recognize personally whether the person is a registered person.

[第3の実施の形態]
次に、第3の実施の形態について説明する。
第2の実施の形態においては、単に3次元の個人認識を行なうというものであったが、2次元の個人認識により個人認識できなかった場合に3次元の個人認識を行なうというものである。
なお、本実施の形態においては、メモリ12には、被写体の種類毎の立体顔データに代えて、個人認識用の人物毎の2次元(平面)の顔特徴データ(顔データ)が登録(記録)されているとともに、人の顔検出用の2次元の顔特徴データも記録されている。
[Third Embodiment]
Next, a third embodiment will be described.
In the second embodiment, three-dimensional personal recognition is simply performed. However, when personal recognition cannot be performed by two-dimensional personal recognition, three-dimensional personal recognition is performed.
In the present embodiment, two-dimensional (planar) face feature data (face data) for each person for personal recognition is registered (recorded) in the memory 12 instead of the three-dimensional face data for each type of subject. ) And two-dimensional face feature data for detecting a human face is also recorded.

D.デジタルカメラ1の動作
第1の実施の形態におけるデジタルカメラ1の動作を図7のフローチャートに従って説明する。
ユーザのモード切替キーの操作により、静止画撮影モードに設定されると、ステップS51で、CCD5に所定のフレームレートで被写体を撮像させる処理を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する。
D. Operation of Digital Camera 1 The operation of the digital camera 1 in the first embodiment will be described with reference to the flowchart of FIG.
When the still image shooting mode is set by the user's operation of the mode switching key, in step S51, a process of causing the CCD 5 to image a subject at a predetermined frame rate is started, and images are sequentially captured by the CCD 5 and generated by the image generation unit 9. The frame image data (YUV data) of the luminance / chrominance signal thus recorded is stored in the buffer memory (DRAM 13), and an image based on the stored frame image data is displayed on the image display unit 15, so-called through image. Start display.

次いで、ステップS52で、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
このとき、ユーザは、撮影したいメイン被写体を画角内に収めて構図を決めてから撮影の準備を指示するためシャッタボタンを半押し操作する。
Next, in step S52, the CPU 10 determines whether or not the shutter button has been half-pressed by the user. This determination is made based on whether or not an operation signal corresponding to a half-press operation of the shutter button is sent from the key input unit 11.
At this time, the user half-presses the shutter button in order to instruct preparation for shooting after placing the main subject to be shot within the angle of view and determining the composition.

ステップS52で、シャッタボタンが半押しされていないと判断すると、半押しされるまでステップS52に留まり、シャッタボタンが半押しされたと判断すると、ステップS53に進み、CPU10の2次元顔認識手段102は、2次元の顔検出処理を開始する。この2次元の顔検出処理は、直近に撮像された画像データに基づいて全被写体の特徴データ(2次元の特徴データ)を算出し、該算出した特徴データと、予め記録されている顔検出用の顔特徴データとを比較照合することにより、画像内にある人の顔を検出する。ここで、記録されている顔検出用の顔特徴データは、人の顔であることが検出できれば十分なので、具体的に誰の顔であるかを認識できる程度の情報量は必要ない。また、ステップS53で算出される全被写体の特徴データも同様に、人の顔を検出するのに必要な情報量でよい。   If it is determined in step S52 that the shutter button is not half-pressed, the process stays in step S52 until it is half-pressed. If it is determined that the shutter button is half-pressed, the process proceeds to step S53, and the two-dimensional face recognition unit 102 of the CPU 10 A two-dimensional face detection process is started. In this two-dimensional face detection process, feature data (two-dimensional feature data) of all subjects is calculated based on the most recently captured image data, and the calculated feature data and a pre-recorded face detection feature are calculated. The human face in the image is detected by comparing with the face feature data. Here, the recorded face feature data for face detection is sufficient if it can be detected that it is a human face, so that it is not necessary to have an amount of information that can specifically recognize who the face is. Similarly, the feature data of all subjects calculated in step S53 may be the amount of information necessary to detect a human face.

次いで、ステップS54で、CPU10は、2次元の顔検出処理によって人の顔が検出されたか否かを判断する。
ステップS54で、人の顔が検出できたと判断すると、ステップS55に進み、2次元顔認識手段102は、2次元の個人認識処理を行う。この2次元の個人認識処理は、該検出された顔領域の画像データに基づいて、顔の特徴データ(2次元の特徴データ)を算出し、該算出した顔の特徴データと、予め登録されている各人物(1人であってもよい)の顔の顔特徴データ(個人認識用の顔特徴データ)とを比較照合することにより、該登録されている人物の顔があるかを個人認識する。ここで、登録されている各人物毎の顔特徴データは、人の顔であることが大まかに認識できる程度の情報量ではなく、具体的に誰の顔であるかを認識できる程度の情報量を有している。この顔特徴データは、登録モード等においてユーザが任意の人物の顔を登録することができる。この登録は、例えば、登録したい人物の顔を撮影し、該撮影された1枚の画像データから顔の特徴データを算出して登録する。
また、顔領域の画像データに基づいて算出される顔の特徴データも、誰の顔であるか具体的に識別できる程度の情報量を有する。
Next, in step S54, the CPU 10 determines whether or not a human face has been detected by the two-dimensional face detection process.
If it is determined in step S54 that a human face has been detected, the process proceeds to step S55, and the two-dimensional face recognition unit 102 performs a two-dimensional personal recognition process. This two-dimensional personal recognition process calculates facial feature data (two-dimensional feature data) based on the detected face area image data, and is registered in advance with the calculated facial feature data. Personally recognizes whether there is a face of the registered person by comparing and comparing the face feature data (face feature data for personal recognition) of each person (may be one) . Here, the registered facial feature data for each person is not the amount of information that can be roughly recognized as a person's face, but the amount of information that can be specifically identified as who the face is have. The face feature data allows the user to register the face of an arbitrary person in the registration mode or the like. In this registration, for example, the face of a person to be registered is photographed, and facial feature data is calculated from the photographed image data and registered.
In addition, the facial feature data calculated based on the image data of the face area also has an information amount that can specifically identify who the face is.

次いで、ステップS56で、CPU10は、2次元の個人認識処理によって人の顔が個人認識されたか否かを判断する。
ステップS56で、顔を個人認識することができたと判断すると、ステップS64に進み、CPU10は、該個人認識した被写体に対してコントラスト検出方式によるAF処理を行う。
Next, in step S56, the CPU 10 determines whether or not a person's face has been personally recognized by two-dimensional personal recognition processing.
If it is determined in step S56 that the face can be recognized individually, the process proceeds to step S64, and the CPU 10 performs an AF process using a contrast detection method on the subject that has been personally recognized.

一方、ステップS54で、顔を検出することができないと判断した場合、ステップS56で、顔を個人認識することができないと判断した場合は、ステップS57に進み、CPU10は、異なる撮影角度でメイン被写体の撮影を促す表示を行なう。例えば、「撮影したい被写体を異なる角度から撮影してください。」というような表示を行う。これにしたがって、ユーザは撮影角度を変えてメイン被写体を撮像することになる。なお、このときユーザは、メイン被写体となる顔の画角内での位置を変えずに撮影角度を変えることが望ましい。   On the other hand, if it is determined in step S54 that the face cannot be detected, or if it is determined in step S56 that the face cannot be recognized individually, the process proceeds to step S57, and the CPU 10 determines the main subject at a different shooting angle. A display prompting the user to shoot. For example, a display such as “Please photograph the subject to be photographed from different angles” is performed. In accordance with this, the user changes the shooting angle and images the main subject. At this time, it is desirable for the user to change the shooting angle without changing the position within the angle of view of the face as the main subject.

次いで、ステップS58で、CPU10は、2次元の顔検出処理を開始してから所定時間が経過したか否かを判断する。
ステップS58で、所定時間が経過していないと判断するとステップS54に戻る。これにより、所定時間が経過するまでは、撮影角度の異なる画像データに基づいて2次元の顔検出処理や2次元の個人認識処理を行うので、最初は横顔を撮影している場合であっても、該顔を検出、個人認識できる場合があり、処理負担を少なくして顔を検出、個人認識することができる。
Next, in step S58, the CPU 10 determines whether or not a predetermined time has elapsed since the start of the two-dimensional face detection process.
If it is determined in step S58 that the predetermined time has not elapsed, the process returns to step S54. Thus, until a predetermined time elapses, two-dimensional face detection processing and two-dimensional personal recognition processing are performed based on image data with different shooting angles, so even if a side face is first shot. In some cases, the face can be detected and recognized, and the face can be detected and recognized by reducing the processing load.

一方、ステップS58で、所定時間が経過したと判断すると、ステップS59に進み、CPU10は、顔を検出することができたか否かを判断する。
ステップS59で、顔を検出することができたと判断すると、ステップS60に進み、CPU10の3次元顔認識手段101は、該検出された顔領域に基づく3次元の個人認識処理を行なう。この該検出された顔領域に基づく3次元の顔認識処理は、後で説明する。
On the other hand, if it is determined in step S58 that the predetermined time has elapsed, the process proceeds to step S59, and the CPU 10 determines whether or not the face has been detected.
If it is determined in step S59 that a face has been detected, the process proceeds to step S60, where the three-dimensional face recognition unit 101 of the CPU 10 performs a three-dimensional personal recognition process based on the detected face area. The three-dimensional face recognition process based on the detected face area will be described later.

次いで、ステップS61に進み、CPU10は、顔を個人認識することができたか否かを判断する。つまり、登録されている人物の顔が画像内にあるか否かを判断する。
ステップS61で、顔を個人認識することができたと判断すると、ステップS64に進み、CPU10は、該個人認識した顔に対してAF処理を行う。
一方、ステップS61で、顔を個人認識することができないと判断すると、ステップS65に進み、CPU10は、所定の領域に対してAF処理を行う。
Next, the process proceeds to step S61, and the CPU 10 determines whether or not the face can be recognized individually. That is, it is determined whether or not the face of the registered person is in the image.
If it is determined in step S61 that the face has been recognized individually, the process proceeds to step S64, and the CPU 10 performs AF processing on the face that has been recognized.
On the other hand, if it is determined in step S61 that the face cannot be recognized individually, the process proceeds to step S65, and the CPU 10 performs AF processing on a predetermined area.

また、ステップS59で、顔を検出することができないと判断すると、ステップS62に進み、CPU10の3次元顔認識手段101は、画像データの全領域に基づく3次元の個人認識処理を行なう。この全領域に基づく3次元の顔認識処理は、後で説明する。   If it is determined in step S59 that a face cannot be detected, the process proceeds to step S62, and the three-dimensional face recognition unit 101 of the CPU 10 performs a three-dimensional personal recognition process based on the entire area of the image data. This three-dimensional face recognition process based on the entire area will be described later.

次いで、ステップS63で、CPU10は、顔を個人認識することができたか否かを判断する。つまり、登録されている人物の顔が画像内にあるか否かを判断する。
ステップS63で、顔を個人認識することができたと判断すると、ステップS64に進み、CPU10は、該個人認識した顔に対してAF処理を行い、ステップS63で、顔を個人認識することができないと判断すると、ステップS65に進み、CPU10は、所定の領域に対してAF処理を行う。
Next, in step S63, the CPU 10 determines whether or not the face can be recognized individually. That is, it is determined whether or not the face of the registered person is in the image.
If it is determined in step S63 that the face can be recognized individually, the process proceeds to step S64, and the CPU 10 performs AF processing on the recognized face, and cannot recognize the face in step S63. If it judges, it will progress to Step S65 and CPU10 will perform AF processing to a predetermined field.

ステップS64、ステップS65でAF処理を行うと、ステップS66に進み、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS66で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS66に留まり、シャッタボタンが全押しされたと判断すると、ステップS67に進み、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録する処理を行って、ステップS51に戻る。
When AF processing is performed in step S64 and step S65, the process proceeds to step S66, and the CPU 10 determines whether or not the shutter button has been fully pressed by the user.
If it is determined in step S66 that the shutter button is not fully pressed, the process stays in step S66 until the shutter button is fully pressed. If it is determined that the shutter button is fully pressed, the process proceeds to step S67, and the CPU 10 performs still image shooting processing. Then, the process of compressing the still image data obtained by the photographing process and recording it in the flash memory 14 is performed, and the process returns to step S51.

D−1.検出された顔領域に基づく3次元の個人認識処理について
顔領域に基づく3次元の個人認識処理の動作を図8のフローチャートにしたがって説明する。
図7のステップS60に進むと、図8のステップS71に進み、CPU10の3次元顔認識手段101は、直近に撮像された撮影角度の異なる複数のフレーム画像データから、該検出された顔の特徴データ(2次元の特徴データ)をそれぞれ算出する。この顔の特徴データの算出は、各フレーム画像データ毎に検出された顔領域の画像データから顔の特徴データをそれぞれ算出する。ここで、CPU10は、少なくとも最新の複数枚のフレーム画像データをバッファメモリに保持させておく。また、各フレーム画像データから算出される顔の特徴データは、誰の顔であるか具体的に識別できる程度の情報量を有する。
D-1. 3D Personal Recognition Process Based on Detected Face Area The operation of the 3D personal recognition process based on the face area will be described with reference to the flowchart of FIG.
When the process proceeds to step S60 in FIG. 7, the process proceeds to step S71 in FIG. 8, and the three-dimensional face recognition unit 101 of the CPU 10 detects the feature of the detected face from a plurality of frame image data captured at the most recent photographing angles. Data (two-dimensional feature data) is calculated. The facial feature data is calculated by calculating facial feature data from the image data of the face area detected for each frame image data. Here, the CPU 10 holds at least the latest plurality of frame image data in the buffer memory. Further, the facial feature data calculated from each frame image data has an amount of information that can be specifically identified as to who the face is.

なお、各フレーム画像データの顔領域の位置を同じにするようにしてもよい。この場合は、何れかのタイミングで検出された顔に基づいて顔領域を定め、各フレーム画像データの該定められた顔領域の画像データから顔の特徴データをそれぞれ算出する。   Note that the position of the face area of each frame image data may be the same. In this case, a face area is determined based on the face detected at any timing, and face feature data is calculated from the image data of the determined face area of each frame image data.

次いで、ステップS72で、3次元顔認識手段101は、該算出した各フレーム画像データの顔の特徴データに基づいて、顔の3次元モデルを生成する。
次いで、ステップS73で、CPU10の3次元顔認識手段101は、顔の向きを正面と設定する。
In step S72, the three-dimensional face recognition unit 101 generates a three-dimensional model of the face based on the calculated face feature data of each frame image data.
Next, in step S73, the three-dimensional face recognition unit 101 of the CPU 10 sets the face direction to the front.

次いで、ステップS74で、CPU10の3次元顔認識手段101は、ステップS72で生成した3次元モデルに基づいて、該設定した向きから見た顔の2次元(平面)画像データを生成する。
次いで、ステップS75で、CPU10の3次元顔認識手段101は、該生成した顔の平面画像データから、顔の特徴データ(2次元の特徴データ)を算出する。これにより、ここで算出される顔の特徴データは、現在設定されている向きから見た顔の特徴データとなる。また、ここで、算出される顔の特徴データは、誰の顔であるか具体的に識別できる程度の情報量を有する。
Next, in step S74, the three-dimensional face recognition unit 101 of the CPU 10 generates two-dimensional (planar) image data of the face viewed from the set orientation based on the three-dimensional model generated in step S72.
Next, in step S75, the three-dimensional face recognition unit 101 of the CPU 10 calculates facial feature data (two-dimensional feature data) from the generated planar image data of the face. Thus, the facial feature data calculated here is facial feature data viewed from the currently set direction. Here, the calculated facial feature data has an amount of information that can be specifically identified as to who the face is.

次いで、ステップS76で、CPU10の3次元顔認識手段101は、ステップS75で算出された、設定されている向きから見た顔の特徴データと、予めメモリ12に登録(記録)されている人物毎の2次元の顔特徴データ(個人認識用の顔特徴データ)とを比較照合する。
次いで、ステップS77で、CPU10の3次元顔認識手段101は、人物毎の顔特徴データのうち、ステップS75で算出した顔の特徴データと所定値以上で一致する顔特徴データがあるか否かを判断する。つまり、所定の範囲内で一致する顔特徴データがあるか否かを判断する。
Next, in step S76, the three-dimensional face recognition unit 101 of the CPU 10 calculates the feature data of the face viewed from the set direction calculated in step S75 and each person registered (recorded) in the memory 12 in advance. Are compared and collated with the two-dimensional face feature data (face feature data for personal recognition).
Next, in step S77, the three-dimensional face recognition unit 101 of the CPU 10 determines whether or not there is face feature data that matches the face feature data calculated in step S75 at a predetermined value or more among the face feature data for each person. to decide. That is, it is determined whether or not there is face feature data that matches within a predetermined range.

ステップS77で、所定値以上で一致する顔特徴データがある場合には、該顔特徴データに対応する人物の顔あると判断する。
一方、ステップS77で、所定値以上で一致する顔特徴データがない場合は、ステップS79に進み、CPU10の3次元顔認識手段101は、現在設定されている向きが最後の向きであるか否かを判断する。つまり、予め決められたすべての向きが設定されたか否かを判断する。
If there is face feature data that matches at a predetermined value or more in step S77, it is determined that there is a human face corresponding to the face feature data.
On the other hand, if there is no matching facial feature data at a predetermined value or more in step S77, the process proceeds to step S79, and the three-dimensional face recognition unit 101 of the CPU 10 determines whether or not the currently set orientation is the last orientation. Judging. That is, it is determined whether or not all predetermined directions have been set.

ステップS79で、設定されている向きが最後の向きでないと判断すると、ステップS80に進み、CPU10の3次元顔認識手段101は、次の向きに設定して、ステップS74に戻る。例えば、現在設定されている向きが顔の正面の場合は、顔を斜め右前から見た向きと設定する。つまり、向きの角度を変える。なお、ここで設定される顔の向きは、ステップS71で取得したフレーム画像データが撮影された撮影角度に拘束されることなく、生成した顔の3次元モデルから自由に設定することができる。
一夫、ステップS79で、設定されている向きが最後の向きであると判断すると、ステップS81に進み、CPU10の3次元顔認識手段101は、登録されている人物の顔がないと判断する。
If it is determined in step S79 that the set direction is not the last direction, the process proceeds to step S80, in which the three-dimensional face recognition unit 101 of the CPU 10 sets the next direction and returns to step S74. For example, when the currently set direction is the front of the face, the face is set to the direction seen from the diagonally right front. In other words, the direction angle is changed. The face orientation set here can be freely set from the generated three-dimensional model of the face without being restricted by the shooting angle at which the frame image data acquired in step S71 was shot.
If it is determined in step S79 that the set direction is the last direction, the process proceeds to step S81, and the three-dimensional face recognition unit 101 of the CPU 10 determines that there is no registered person's face.

これにより、個人認識の精度を向上させることができる。例えば、人物が横を向いている場合やサングラスをしている場合であっても、該人物が登録されている人物であるかを個人認識することでできる。また、顔の3次元モデルのみしか生成しないので、全被写体の3次元モデルを生成するのに比べ処理負担を軽減させることができる。
立体顔データはなく、2次元の顔データを記録しておけばよいので、記録容量を少なくすることができる。
Thereby, the accuracy of personal recognition can be improved. For example, even when a person is facing sideways or wearing sunglasses, it can be recognized by personally identifying whether the person is a registered person. In addition, since only the 3D model of the face is generated, the processing load can be reduced as compared to generating the 3D model of all subjects.
Since there is no 3D face data and it is only necessary to record two-dimensional face data, the recording capacity can be reduced.

D−2.画像データの全領域に基づく3次元の個人認識処理について
次に、画像データの全領域に基づく3次元の個人認識処理の動作を説明する。なお、この全領域に基づく3次元の個人認識処理の動作は、図8に示したフローチャートとほぼ同様なので、図8のフローチャートを引用し、異なる部分だけを説明する。
D-2. Next, the operation of the three-dimensional personal recognition process based on the entire area of the image data will be described. The operation of the three-dimensional personal recognition process based on this entire area is almost the same as the flowchart shown in FIG. 8, so only the different parts will be described with reference to the flowchart of FIG.

図7のステップS62に進むと、図8のステップS71に進み、CPU10の3次元顔認識手段101は、直近に撮像された撮影角度の異なる複数枚のフレーム画像データから全被写体の特徴データをそれぞれ算出する。この全被写体の特徴データの算出は、各フレーム画像データの全領域から算出する。ここでいう「全被写体」とは、CCD5によって撮像された全ての被写体のことを指すことは言うまでもない。   When the process proceeds to step S62 in FIG. 7, the process proceeds to step S71 in FIG. 8, and the three-dimensional face recognition unit 101 of the CPU 10 obtains the feature data of all the subjects from the plurality of frame image data captured at different shooting angles. calculate. The calculation of the feature data of all subjects is performed from the entire area of each frame image data. Needless to say, “all subjects” here refers to all subjects imaged by the CCD 5.

そして、ステップS72では、各フレーム画像データの全被写体の特徴データから全被写体の3次元モデルが生成され、ステップS74では該生成された3次元モデルから全被写体の平面画像データ、ステップS75では全被写体の特徴データが算出されることになる。また、ステップS77では、ステップS75で算出した全被写体の特徴データの中に、人物毎の顔特徴データの何れかの顔特徴データと所定値以上で一致する部分があるか否かを判断する。ステップS77で一致する部分があると判断すると、ステップS78で、該所定値以上で一致する部分に登録されている顔があると判断し、該所定値以上で一致した部分に対応する撮像されたフレーム画像データ上の領域を顔領域とする。
これにより、個人認識の精度を向上させることができる。例えば、人物が横を向いている場合やサングラスをしている場合であっても、該人物が登録されている人物であるかを個人認識することでできる。また、立体顔データはなく、2次元の顔データを記録しておけばよいので、記録容量を少なくすることができる。
In step S72, a 3D model of all subjects is generated from the feature data of all subjects in each frame image data. In step S74, planar image data of all subjects is generated from the generated 3D model. In step S75, all subjects are displayed. The feature data is calculated. In step S77, it is determined whether or not the feature data of all subjects calculated in step S75 includes a portion that matches at least a predetermined value with any of the facial feature data of the facial feature data for each person. If it is determined in step S77 that there is a matching portion, it is determined in step S78 that there is a registered face in the matching portion that is greater than or equal to the predetermined value, and the image corresponding to the matching portion that is greater than or equal to the predetermined value is captured. An area on the frame image data is defined as a face area.
Thereby, the accuracy of personal recognition can be improved. For example, even when a person is facing sideways or wearing sunglasses, it can be recognized by personally identifying whether the person is a registered person. Further, since there is no stereoscopic face data and two-dimensional face data has only to be recorded, the recording capacity can be reduced.

以上のように、第3の実施の形態においては、2次元の個人認識処理を行い、顔が個人認識されない場合のみ、3次元の個人認識を行なうようにしたので、個人認識の処理負担を少なくすることができ、必要な場合のみ3次元の個人認識を行なうことができる。
また、2次元の個人認識処理により顔が個人認識できないが、顔を検出することができた場合は、該検出された顔の3次元モデルを生成するようにしたので、3次元モデルの生成処理の負担を少なくさせることができる。
なお、上記各実施の形態における、「全被写体」と「顔」は、共に被写体の概念に含まれるものである。例えば、画像データの全領域で特徴データを算出する場合は、全被写体の特徴データとなり、画像データの全領域のうち、顔領域で特徴データを算出する場合は、顔の特徴データとなる。
[変形例]
E.上記実施の形態は以下のような態様でもよい。
As described above, in the third embodiment, since the two-dimensional personal recognition process is performed and the three-dimensional personal recognition is performed only when the face is not personally recognized, the processing burden of the personal recognition is reduced. 3D personal recognition can be performed only when necessary.
If the face cannot be recognized by the two-dimensional personal recognition process, but the face can be detected, a three-dimensional model of the detected face is generated. Can be reduced.
In the above embodiments, both “all subjects” and “faces” are included in the concept of subjects. For example, when feature data is calculated in the entire area of the image data, it becomes feature data of all subjects, and when feature data is calculated in the face area of all areas of the image data, it becomes face feature data.
[Modification]
E. The above embodiment may be the following modes.

(01)上記第1の実施の形態においては、3次元の顔検出処理のみを行うようにしたが、上記第3の実施の形態のように、まずは、2次元の顔検出処理を行い、該2次元の顔検出処理により顔が検出されなかった場合に3次元の顔検出処理を行なうようにしてもよい。
また、記第1、2の実施の形態において、図3のステップS3の動作を、第3の実施の形態における図7のステップS60、ステップS62の個人認識処理(該個人認識処理の動作を顔検出処理に適用した動作も含む)を行なうようにしてもよい。図7のステップS60の動作を行なう場合は、顔が検出されていることが前提となる。
(01) In the first embodiment, only the three-dimensional face detection processing is performed. However, as in the third embodiment, first, the two-dimensional face detection processing is performed, If a face is not detected by the two-dimensional face detection process, the three-dimensional face detection process may be performed.
In the first and second embodiments, the operation in step S3 in FIG. 3 is the same as the personal recognition process in steps S60 and S62 in FIG. 7 in the third embodiment. The operation applied to the detection process may also be performed). When performing the operation of step S60 in FIG. 7, it is assumed that a face has been detected.

(02)上記第2の実施の形態においては、単に図3、図6に示す顔検出処理を個人認識処理に適用するようにしたが、図3に示す顔検出処理を個人認識に適用した動作により行なう場合は、個人認識処理を行う前に、2次元の顔検出処理を行い、該検出された顔のみの3次元モデルを生成するようにしてもよい。
この場合は、更に、2次元の顔検出処理により顔が検出できたか否かを判断し、検出できた場合は、顔のみの3次元モデルを生成し、検出できなかった場合は、上記第2の実施に形態に示すように全被写体の3次元モデルを生成するようにしてもよい。
(02) In the second embodiment, the face detection process shown in FIGS. 3 and 6 is simply applied to the personal recognition process. However, the operation in which the face detection process shown in FIG. 3 is applied to the personal recognition process. In the case of performing the above, the two-dimensional face detection process may be performed before the personal recognition process to generate a three-dimensional model of only the detected face.
In this case, it is further determined whether or not the face can be detected by the two-dimensional face detection process. If the face can be detected, a three-dimensional model of only the face is generated. As shown in the embodiment, a three-dimensional model of all subjects may be generated.

(03)また、上記第3の実施の形態においては、図7のステップS60の顔領域に基づく個人認識処理、及び、図7のステップS62の全領域に基づく個人認識処理を図8に示すフローチャートに示す動作で行うようにしたが、図7のステップS60、ステップS62の個人認識処理を、図3及び図6に示す顔検出処理を個人認識に適用した動作によって行なうようにしてもよい。   (03) In the third embodiment, the personal recognition process based on the face area in step S60 in FIG. 7 and the personal recognition process based on the entire area in step S62 in FIG. 7 are shown in FIG. However, the personal recognition processing in steps S60 and S62 in FIG. 7 may be performed by an operation in which the face detection processing shown in FIGS. 3 and 6 is applied to personal recognition.

この場合、ステップS62の個人認識処理を、図3、図6の顔検出処理を個人認識に適用した動作によって行なう場合は、上記第2の実施の形態で説明したような動作になるが、ステップS60の個人認識処理を、図3、図6の顔検出処理を個人認識に適用した動作によって行なう場合は、図3のステップS11で、複数のフレーム画像データの該検出された顔領域の画像データに基づいて顔の特徴データを算出し、ステップS12で算出された各フレーム画像データの顔の特徴データに基づいて顔の立体モデルを生成する。そして、ステップS14では、登録されている人物毎の立体顔データのうち、該生成した顔の立体モデルと所定値以上で一致する立体顔データがあるか否かを判断し、所定値以上で一致する立体顔データがある場合は、該立体顔データに対応する人物の顔があると判断する(ステップS15)。この場合は、顔領域の画像データに基づいて算出される顔の特徴データは、誰の顔であるかを具体的に識別できる程度の情報量が必要であり、また、人物毎に記録されている立体顔データも誰の顔であるかを具体的に識別できる程度の情報量が必要である。   In this case, when the personal recognition processing in step S62 is performed by an operation in which the face detection processing in FIGS. 3 and 6 is applied to personal recognition, the operation is as described in the second embodiment. When the personal recognition process of S60 is performed by an operation in which the face detection process of FIGS. 3 and 6 is applied to personal recognition, in step S11 of FIG. 3, the image data of the detected face area of a plurality of frame image data The facial feature data is calculated based on the facial feature data, and a facial three-dimensional model is generated based on the facial feature data of each frame image data calculated in step S12. In step S14, it is determined whether or not there is 3D face data that matches the generated face 3D model with a predetermined value or more among the registered 3D face data for each person. If there is 3D face data to be determined, it is determined that there is a human face corresponding to the 3D face data (step S15). In this case, the facial feature data calculated based on the image data of the facial area needs an amount of information that can specifically identify who the face is, and is recorded for each person. The amount of information that can be used to specifically identify the face of the three-dimensional face data is also necessary.

また、図6のステップS24では直近に撮像されたフレーム画像データの該検出された顔領域の画像データに基づいて顔の特徴データを算出する。そして、ステップS26で登録されている人物毎の顔特徴データのうち、該算出した顔の特徴データと所定値以上で一致する顔特徴データがあるか否かを判断し、所定値以上で一致する顔特徴データがある場合は、該顔特徴データに対応する人物の顔があると判断する(ステップS27)。この場合は、顔領域の画像データに基づいて算出される顔の特徴データは、誰の顔であるかを具体的に識別できる程度の情報量が必要であり、また、人物毎に記録されている立体顔データも誰の顔であるかを具体的に識別できる程度の情報量が必要であり、また、ステップS23で算出される人物毎の立体顔データから算出されるそれぞれの顔特徴データも誰の顔であるかを具体的に識別できる程度の情報量が必要である。   Further, in step S24 of FIG. 6, face feature data is calculated based on the image data of the detected face area of the most recently captured frame image data. Then, in the face feature data for each person registered in step S26, it is determined whether or not there is face feature data that matches the calculated face feature data at a predetermined value or more. If there is face feature data, it is determined that there is a human face corresponding to the face feature data (step S27). In this case, the facial feature data calculated based on the image data of the facial area needs an amount of information that can specifically identify who the face is, and is recorded for each person. The amount of information that can be used to specifically identify the face of the 3D face data is also necessary, and each face feature data calculated from the 3D face data for each person calculated in step S23 is also included. It is necessary to have an amount of information that can specifically identify who the face is.

(04)また、図8のフローチャートに示す個人認識処理の動作を顔検出処理に適用するようにしてもよい。この場合の動作は、複数のフレーム画像データ全体から全被写体の特徴データを算出するようにし、ステップS72は該算出した各フレーム画像データの全被写体の特徴データに基づいて全被写体の3次元モデルを生成することになる。これにより、ステップS74では全被写体の平面画像データ、ステップS75では全被写体の特徴データが算出されることになる。また、ステップS77では、ステップS75で算出した全被写体の特徴データの中に、被写体の種類毎の顔特徴データの何れかの顔特徴データと所定値以上で一致する部分があるか否かを判断する。ステップS77で一致する部分があると判断すると、ステップS78で該所定値以上で一致する部分に顔があると判断し、顔領域を検出する。
これにより、顔検出の精度を向上させることができる。
(04) The operation of the personal recognition process shown in the flowchart of FIG. 8 may be applied to the face detection process. In this case, the feature data of all subjects is calculated from the entire plurality of frame image data. In step S72, a three-dimensional model of all subjects is calculated based on the feature data of all subjects of the calculated frame image data. Will be generated. Thereby, the planar image data of all subjects is calculated in step S74, and the feature data of all subjects is calculated in step S75. Further, in step S77, it is determined whether or not there is a portion that matches at least a predetermined value with any of the facial feature data of the facial feature data for each type of subject in the feature data of all subjects calculated in step S75. To do. If it is determined in step S77 that there is a matching part, it is determined in step S78 that there is a face in the part that matches the predetermined value or more, and a face area is detected.
Thereby, the accuracy of face detection can be improved.

この顔検出処理の場合は、具体的に誰の顔であるかを認識する必要はないので、算出する特徴データは、どの種類の被写体の顔であるかを大まかに検出することができる程度の情報量でよい。また、この場合は、被写体の種類毎に2次元の顔特徴データを記録しておき、該記録されている各種類の被写体の特徴データも大まかにどの種類の被写体の顔であるかを大まかに検出することができる程度の情報量でよい。   In the case of this face detection process, it is not necessary to recognize who the face is, so that the feature data to be calculated can detect roughly what kind of subject the face is. The amount of information is sufficient. Further, in this case, two-dimensional face feature data is recorded for each type of subject, and it is roughly determined what type of subject the feature data of each type of subject recorded is. The amount of information that can be detected is sufficient.

(05)また、上記第3の実施の形態においては、2次元の顔検出処理と2次元の個人認識処理の両方を行なうようにしたが、どちらか一方であってもよい。
2次元の顔検出処理のみを行う場合は、図7のステップS54で、顔が検出できたと判断するとステップS60に進み、ステップS54で、顔が検出できていないと判断すると、ステップS57に進むようにする。そして、ステップS58で、所定時間が経過したと判断するとステップS62に進む。つまり、ステップS55、ステップS56、ステップS59の動作は不要ということになる。
(05) In the third embodiment, both the two-dimensional face detection process and the two-dimensional personal recognition process are performed, but either one may be performed.
When performing only the two-dimensional face detection process, if it is determined in step S54 in FIG. 7 that a face has been detected, the process proceeds to step S60. If it is determined in step S54 that a face has not been detected, the process proceeds to step S57. To. If it is determined in step S58 that the predetermined time has elapsed, the process proceeds to step S62. That is, the operations in step S55, step S56, and step S59 are unnecessary.

また、2次元の個人認識処理のみを行う場合は、ステップS53では2次元の顔検出処理に代えて2次元の個人認識処理を開始して、ステップS56に進む。そして、ステップS58で、所定時間が経過したと判断するとステップS62に進む。つまり、ステップS54、ステップS55、ステップS59〜ステップS61の動作は不要ということになる。   When only the two-dimensional personal recognition process is performed, a two-dimensional personal recognition process is started instead of the two-dimensional face detection process in step S53, and the process proceeds to step S56. If it is determined in step S58 that the predetermined time has elapsed, the process proceeds to step S62. That is, the operations of step S54, step S55, and step S59 to step S61 are unnecessary.

また、2次元の個人認識処理のみを行う場合であって、2次元の個人認識処理により顔を検出することができる場合は、ステップS53では2次元の顔検出処理に代えて2次元の個人認識処理を開始して、ステップS56に進む。つまり、ステップS54、ステップS55の動作は不要ということになる。また、この2次元の個人認識処理による顔検出は、登録されている顔が画像データ内にあると個人認識された場合は、当然に顔も検出されていることになり、また、たとえ登録されている顔が画像データ内にないと判断された場合であっても、全被写体の2次元の特徴データと登録されている人物毎の顔特徴データとの比較照合の結果により、登録されている人物の顔ではないが人の顔であることを検出することは可能であるからである。例えば、顔特徴データと第1の所定値以上で一致する部分がある場合は、該顔特徴データに対応する人物の顔であると個人認識し、第1の所定値以上で一致しないが、第2の所定値(第1の所定値より小さい値)以上で一致する場合は人の顔であると検出する。   If only the two-dimensional personal recognition process is performed and the face can be detected by the two-dimensional personal recognition process, the two-dimensional personal recognition is performed instead of the two-dimensional face detection process in step S53. The process is started and the process proceeds to step S56. That is, the operations in step S54 and step S55 are unnecessary. In addition, in the face detection by the two-dimensional personal recognition processing, if the registered face is recognized as being in the image data, the face is naturally detected, and even if the registered face is registered. Even if it is determined that the face is not in the image data, it is registered based on the result of comparison and collation between the two-dimensional feature data of all subjects and the registered face feature data for each person. This is because it is possible to detect that the face is not a human face but a human face. For example, if there is a portion that matches the face feature data at a first predetermined value or more, the face is personally recognized as a human face corresponding to the face feature data and does not match at the first predetermined value or more. If the values coincide with each other at a predetermined value of 2 (a value smaller than the first predetermined value) or more, it is detected as a human face.

(06)また、上記第3の実施の形態においては、図7のステップS61で、顔を個人認識することができないと判断した場合は、ステップS65で所定の領域に対してAF処理を行うようにしたが、ステップS61で、顔を個人認識することができないと判断した場合は、ステップS59で検出されたと判断された顔に対してAF処理を行うようにしてもよい。   (06) In the third embodiment, if it is determined in step S61 in FIG. 7 that the face cannot be recognized individually, AF processing is performed on the predetermined area in step S65. However, if it is determined in step S61 that the face cannot be recognized individually, the AF process may be performed on the face determined to be detected in step S59.

また、個人認識処理を行うことにより顔を検出することができる場合は、ステップS63で顔を個人認識することができないと判断された場合は、顔を検出することができたか否かを判断し、顔を検出することができたと判断した場合は、該検出された顔に対してAF処理を行い、顔を検出することができないと判断した場合は、ステップS65に進み所定の領域に対してAF処理を行うようにしてもよい。また、この個人認識処理による顔検出は、登録されている顔があると個人認識された場合は、当然に顔も検出されていることになり、また、たとえ登録されている顔ないと判断された場合であっても、全被写体の3次元モデルと人物毎の立体顔データとの比較照合や、全被写体の2次元の特徴データと、顔特徴データとの比較照合の結果により、登録されている人物の顔はないが人の顔があることを検出することは可能であるからである。例えば、立体顔データと第1の所定値以上で一致する部分がある場合は、該立体顔データに対応する人物の顔があると個人認識し、第1の所定値以上で一致しないが、第2の所定値(第1の所定値より小さい値)以上で一致する場合は人の顔であると検出する。   If the face can be detected by performing the personal recognition process, if it is determined in step S63 that the face cannot be recognized, it is determined whether the face can be detected. If it is determined that the face can be detected, AF processing is performed on the detected face. If it is determined that the face cannot be detected, the process proceeds to step S65 and a predetermined area is detected. AF processing may be performed. Further, in the face detection by this personal recognition process, if there is a registered face, the face is naturally detected, and it is determined that the face is not registered. Even if the image is registered, it is registered based on the result of comparison and collation between the 3D model of all subjects and the 3D face data of each person, and comparison and collation of 2D feature data of all subjects and face feature data. This is because it is possible to detect that there is no human face but a human face. For example, if there is a portion that matches the 3D face data with a first predetermined value or more, it is recognized that there is a human face corresponding to the 3D face data and does not match with the 1st predetermined value or more. If the values coincide with each other at a predetermined value of 2 (a value smaller than the first predetermined value) or more, it is detected as a human face.

(07)また、上記各実施の形態において、図2のステップS3では、画像データの全領域に基づいて3次元の顔検出処理を行うようにしたが、全領域ではなく、画角の中央領域、または、ユーザによって任意に指定された領域、または、肌色成分を有する領域に基づいて顔検出処理を行うようにしてもよい。
また、図7のステップS62の全領域に基づく3次元の個人認識処理も同様に、全領域ではなく、画角の中央領域、または、ユーザによって任意に指定された領域、または、肌色成分を有する領域に基づいて個人認識処理を行うようにしてもよい。
また、図7のステップS53の2次元の顔検出処理も、全領域ではなく、画角の中央領域、または、ユーザによって任意に指定された領域、または、肌色成分を有する領域に基づいて顔検出処理を行うようにしてもよい。
また、この領域のサイズは、所定のサイズ、又は、ユーザによって任意に指定されたサイズ、又は、肌色成分を有する画素の範囲に基づくサイズであってもよい。
(07) In each of the above embodiments, in step S3 of FIG. 2, the three-dimensional face detection process is performed based on the entire area of the image data. Alternatively, the face detection process may be performed based on an area arbitrarily designated by the user or an area having a skin color component.
Similarly, the three-dimensional personal recognition process based on the entire area in step S62 in FIG. 7 has not the entire area but the central area of the angle of view, the area arbitrarily designated by the user, or the skin color component. Individual recognition processing may be performed based on the region.
In addition, the two-dimensional face detection process in step S53 of FIG. 7 is not based on the entire area, but based on the center area of the angle of view, the area arbitrarily specified by the user, or the area having the skin color component. Processing may be performed.
Further, the size of this area may be a predetermined size, a size arbitrarily designated by the user, or a size based on a range of pixels having a skin color component.

(08)また、上記各実施の形態及び上記各変形例においては、被写体の種類毎、人物毎の立体顔データ、被写体の種類毎の2次元の顔特徴データ、人物毎の2次元の顔特徴データを用いて顔を認識(検出、個人認識)するようにしたが、所定の種類の顔データ、所定の人物の顔データを用いて顔を検出、個人認識するようにしたり、ユーザによって任意に指定された種類の顔データ、人物の顔データを用いて顔を検出、個人認識するようにしてもよい。
例えば、ユーザによって猫が指定された場合は、撮像された被写体の中に人や犬が撮像さてれている場合で合っても、猫の顔のみを認識することになる。
これにより、認識したい被写体の顔のみを認識することができる。
(08) Also, in each of the above embodiments and each of the above modifications, the three-dimensional face data for each subject type, each person, two-dimensional face feature data for each subject type, and two-dimensional face features for each person. Although the face is recognized (detected, personal recognition) using data, a face is detected using a predetermined type of face data or a predetermined person's face data, and the face can be recognized or arbitrarily determined by the user. A face may be detected using a designated type of face data or person face data, and personal recognition may be performed.
For example, when a cat is designated by the user, only the face of the cat is recognized even if a person or dog is imaged in the imaged subject.
Thereby, only the face of the subject to be recognized can be recognized.

(09)また、上記第各実施の形態においては、被写体の特徴点や被写体の種類毎の特徴点を抽出して特徴データを抽出し、該抽出した特徴データに基づいて3次元モデルを生成したり、該抽出した特徴データを比較照合することにより顔を検出するようにしたが、他の方法によって3次元モデルを生成したり、顔を検出したりするようにしてもよい。   (09) In each of the above embodiments, feature data is extracted by extracting the feature points of the subject and the types of subjects, and a three-dimensional model is generated based on the extracted feature data. Although the face is detected by comparing and comparing the extracted feature data, a three-dimensional model may be generated or the face may be detected by other methods.

(10)また、上記第各実施の形態においては、静止画撮影処理により撮影された静止画像データのみを記録するようにしたが、顔検出処理により検出された顔の位置や顔の種類(人、犬、猫等)、個人認識処理により認識された人物名を静止画像データに関連付けて記録するようにしてもよい。   (10) In the first embodiment, only the still image data captured by the still image capturing process is recorded. However, the face position and the type of face (person) detected by the face detection process are recorded. , Dogs, cats, etc.), the person name recognized by the personal recognition process may be recorded in association with the still image data.

(11)また、上記第各実施の形態においては、検出した顔、個人認識した顔に基いてAF処理を行うようにしたが、検出された顔、個人認識した顔に基づいて露出制御を行なったり、被写体追従処理を行うというように、検出された顔、個人認識された顔に基づいて所定の処理を行うようにしてもよい。   (11) In the first embodiment, the AF process is performed based on the detected face and the personally recognized face. However, exposure control is performed based on the detected face and the personally recognized face. Alternatively, a predetermined process may be performed based on a detected face or a face that has been personally recognized, such as subject tracking processing.

(12)また、上記第各実施の形態における、図6、図8に示す動作においては、最初は、顔の向きを正面に設定し(ステップS21、ステップS73)、その後、顔が検出、個人認識されるまで、顔の向きを変えて設定するようにしたが(ステップS29、ステップS80)、最初に設定する顔の向きは正面でなくてもよい。要は、異なる顔の向きに設定していくものであればよい。   (12) In the operations shown in FIGS. 6 and 8 in each of the above-described embodiments, first, the face orientation is set to the front (step S21, step S73), and then the face is detected and personal The face direction is set to be changed until it is recognized (steps S29 and S80), but the face direction to be set first may not be the front. In short, what is necessary is just to set different face orientations.

(13)また、上記第1の実施の形態の2つ目の顔検出処理においては、被写体の種類毎に立体顔データから、異なる角度から見た顔の平面画像データを生成し、該生成した顔の平面画像データから被写体の種類毎の顔特徴データを算出するようしたが、被写体の種類毎の立体顔データから、異なる表情の顔の平面画像データを生成し、該生成した顔の平面画像データから被写体の種類毎の顔特徴データを算出するようにしてもよい。このときは、正面から見たときの顔の平面画像データを生成し、また、予め記録されている被写体の種類毎の立体顔データは、表情が無し、つまり、普通の状態での顔の3次元データある。   (13) In the second face detection process of the first embodiment, the plane image data of the face viewed from different angles is generated from the three-dimensional face data for each type of subject, and the generated Face feature data for each type of subject is calculated from the plane image data of the face, but plane image data of a face with a different expression is generated from the three-dimensional face data for each type of subject, and the generated plane image of the face Face feature data for each type of subject may be calculated from the data. At this time, plane image data of the face when viewed from the front is generated, and the three-dimensional face data for each type of subject recorded in advance has no expression, that is, 3 of the face in a normal state. There is dimension data.

以下、立体顔データから異なる表情の顔を生成する場合について説明する。
図9は、メモリ12に記録されている顔の立体顔データの様子を示すものである。
図9を見ると、立体顔データは、3次元の顔データの他に顔の筋肉、つまり、眼瞼部や眼窩部を囲む眼輪筋や、唇を囲む口輪筋などの輪状のいわゆる括約筋と、額や眉とつながる前頭筋や皺眉筋、鼻根筋、口周囲の放射状の上唇挙筋や大頬骨筋、笑筋、口角下制筋、下唇下制筋などの線形筋とから成り立っている。
Hereinafter, a case where a face having a different expression is generated from the three-dimensional face data will be described.
FIG. 9 shows the face 3D face data recorded in the memory 12.
Referring to FIG. 9, the three-dimensional face data includes three-dimensional face data and facial muscles, that is, ring-shaped sphincters such as the ocular muscles surrounding the eyelid and eye sockets, and the ring-and-mouth muscles surrounding the lips. It consists of linear muscles such as the frontal muscles, the eyebrow muscles, the nasal root muscles, the radial lip levator muscles, the large cheekbone muscles, the laughing muscles, the lower antrum and the lower lip muscles. Yes.

また、図10(A)は、被写体の種類が人の場合における表情動作単位(以下、AU(Action Unit)という)と筋肉の収縮との対応関係を示した表情単位動作テーブルの様子を示すものである。この表情動作テーブルはメモリ12に記録されている。
図10(A)を見ると分かるように、AU毎に番号(No)が付されており、AU1は「内眉を上げる」という動作であり、収縮させる筋肉は「前頭筋(内)」なる。また、AU2は「外眉を上げる」という動作であり、収縮させる筋肉は「前頭筋(外)」となる。また、AU3は「眉を下げる」という動作であり、収縮させる筋肉は「皺眉筋、鼻根筋」となる。このように、各AUに動作の説明とその収縮させる筋肉が記録させている。
このAUユニットを任意に組み合わせることにより、種々の表情を作ることができる。
FIG. 10A shows a state of a facial expression unit motion table showing a correspondence relationship between facial expression motion units (hereinafter referred to as AU (Action Unit)) and muscle contraction when the type of subject is a person. It is. This facial expression operation table is recorded in the memory 12.
As can be seen from FIG. 10A, a number (No) is assigned to each AU, AU1 is an operation of “raising the inner eyebrows”, and the muscle to be contracted is “frontal muscle (inner)”. . AU2 is an operation of “raising the outer eyebrows”, and the muscle to be contracted is “frontal muscle (outside)”. Further, AU3 is an operation of “lowering the eyebrows”, and the muscles to be contracted are “eyebrows and nasal root muscles”. In this way, each AU has a description of the action and the muscle to be contracted recorded.
Various expressions can be created by arbitrarily combining the AU units.

また、図10(B)は、被写体の種類が人の場合における各表情とAUの組み合わせの対応関係を示した表情テーブルの様子を示すものである。この表情テーブルはメモリ12に記録させている。
図10(B)を見ると分かるように、表情毎に番号(No)が付されており、表情1は、中立であり、AUの組み合わせは無しである。この場合は筋肉を収縮させる必要が無いからである。また、表情2は、驚きの表情であり、AUの組み合わせは、AU1(内眉を上げる)+AU2(外眉を上げる)+AU4(上瞼を上げる)+AU6(口を開ける)である。このように、各表情毎にAUの組み合わせが記録されている。
なお、この表情単位動作テーブル、表情テーブルは被写体の種類毎に記録されている。
FIG. 10B shows a facial expression table showing the correspondence between each facial expression and AU combination when the type of subject is a person. This facial expression table is recorded in the memory 12.
As can be seen from FIG. 10B, a number (No) is assigned to each facial expression, facial expression 1 is neutral, and there is no AU combination. In this case, it is not necessary to contract the muscle. The expression 2 is a surprising expression, and the AU combination is AU1 (raises the inner eyebrows) + AU2 (raises the outer eyebrows) + AU4 (raises the upper eyebrows) + AU6 (opens the mouth). Thus, the AU combination is recorded for each facial expression.
The expression unit operation table and the expression table are recorded for each type of subject.

次に、本変形例(13)における3次元の顔検出処理の動作を図11のフローチャートにしたがって説明する。
顔検出処理を開始すると、ステップS101で、CPU10の3次元顔認識手段101は、顔の表情を表情1に設定し、ステップS102で、該設定された表情に基づいて、各種類の被写体の立体顔データの顔の表情を変化させる。
このとき、被写体の種類毎の表情単位動作テーブル、表情テーブルを用いて各種類の被写体の立体顔データの表情を変化させる。なお、表情1の場合は顔の表情を変化させない。
Next, the operation of the three-dimensional face detection process in the modification (13) will be described with reference to the flowchart of FIG.
When the face detection process is started, in step S101, the three-dimensional face recognition unit 101 of the CPU 10 sets the facial expression to facial expression 1, and in step S102, based on the set facial expression, the three-dimensional face of each type of subject. Change the facial expression of the face data.
At this time, the expression of the three-dimensional face data of each type of subject is changed using the expression unit operation table and the expression table for each type of subject. In the case of facial expression 1, the facial expression is not changed.

次いで、ステップS103で、3次元顔認識手段101は、該表情が変化された各種類の被写体の立体顔データに基いて、正面から見た各種類の被写体の顔の平面画像データを生成する。
次いで、ステップS104で、CPU10の3次元顔認識手段101は、該生成した被写体の種類毎の顔の平面画像データから、該設定されている表情の被写体の種類毎の顔特徴データを算出する。
次いで、ステップS105で、CPU10の3次元顔認識手段101は、直近にCCD5により撮像されたフレーム画像データから、全被写体の特徴データを算出する。
Next, in step S103, the three-dimensional face recognition unit 101 generates plane image data of the face of each type of subject viewed from the front, based on the three-dimensional face data of each type of subject whose expression is changed.
Next, in step S104, the three-dimensional face recognition unit 101 of the CPU 10 calculates face feature data for each type of subject of the set facial expression from the generated plane planar image data for each type of subject.
Next, in step S105, the three-dimensional face recognition unit 101 of the CPU 10 calculates feature data of all subjects from the frame image data captured by the CCD 5 most recently.

次いで、ステップS106で、CPU10の3次元顔認識手段101は、ステップS104で算出された、設定されている表情の被写体の種類毎の顔特徴データと、ステップS105で算出された全被写体の特徴データとを比較照合する。
次いで、ステップS107で、CPU10の3次元顔認識手段101は、ステップS105で算出した全被写体の特徴データの中に、ステップS104で算出した被写体の種類毎の顔特徴データの何れかの顔特徴データと所定値以上で一致する部分があるか否かを判断する。
Next, in step S106, the three-dimensional face recognition unit 101 of the CPU 10 calculates the facial feature data for each type of subject of the set facial expression calculated in step S104 and the feature data of all subjects calculated in step S105. Is compared.
Next, in step S107, the three-dimensional face recognition unit 101 of the CPU 10 includes any one of the face feature data of the face feature data for each type of subject calculated in step S104 among the feature data of all subjects calculated in step S105. It is determined whether or not there is a portion that matches with a predetermined value or more.

ステップS107で、所定値以上で一致する部分があると判断した場合は、ステップS108に進み、CPU10の3次元顔認識手段101は、該所定値以上で一致する部分を顔と判断し、該部分に対応する、全被写体の特徴データの生成元となったフレーム画像データ上の領域を顔領域とする。つまり、フレーム画像データ上の顔領域を検出する。   If it is determined in step S107 that there is a matching part with a predetermined value or more, the process proceeds to step S108, and the three-dimensional face recognition unit 101 of the CPU 10 determines the matching part with the predetermined value or more as a face. The area on the frame image data that is the generation source of the feature data of all the subjects corresponding to is a face area. That is, the face area on the frame image data is detected.

ステップS107で、所定値以上で一致する部分がないと判断した場合は、ステップS109に進み、CPU10の3次元顔認識手段101は、設定されている表情が最後の表情であるか否かを判断する。つまり、予め決められた全ての表情が設定されたか否かを判断する。
ステップS109で、設定されている表情が最後の表情でないと判断すると、ステップS110に進み、CPU10の3次元顔認識手段101は、次の表情に設定して、ステップS102に進む。例えば、現在設定されている表情が表情1の場合は、表情2と設定する。
If it is determined in step S107 that there is no matching part with a predetermined value or more, the process proceeds to step S109, and the three-dimensional face recognition unit 101 of the CPU 10 determines whether or not the set facial expression is the last facial expression. To do. That is, it is determined whether all predetermined facial expressions have been set.
If it is determined in step S109 that the set facial expression is not the last facial expression, the process proceeds to step S110, and the three-dimensional face recognition unit 101 of the CPU 10 sets the next facial expression, and then proceeds to step S102. For example, when the currently set facial expression is facial expression 1, it is set as facial expression 2.

一方、ステップS109で、設定されている表情が最後の表情であると判断すると、ステップS111に進み、CPU10の3次元顔認識手段101は、撮像されたフレーム画像データ内に顔がないと判断する。
また、ステップS108で顔領域を検出すると、図2のステップS4で顔が検出できたと判断され、ステップS111で顔がないと判断すると、図2のステップS4で顔が検出できなかったと判断する。
ここで、図12は、被写体の種類が人の場合におけるステップS102で生成される各表情の顔の立体顔データの様子を示すものである。
無表情(中立)の立体顔データから、驚き、喜び、怒り、悲しみ、嫌悪等の立体顔データが生成されているのがわかる。
On the other hand, if it is determined in step S109 that the set facial expression is the last facial expression, the process proceeds to step S111, and the three-dimensional face recognition unit 101 of the CPU 10 determines that there is no face in the captured frame image data. .
If a face area is detected in step S108, it is determined that a face has been detected in step S4 in FIG. 2, and if no face is detected in step S111, it is determined that a face has not been detected in step S4 in FIG.
Here, FIG. 12 shows a state of the three-dimensional face data of each facial expression generated in step S102 when the type of subject is a person.
From the expressionless (neutral) 3D face data, it can be seen that 3D face data such as surprise, joy, anger, sadness, and disgust are generated.

以上のように、本変形例においては、全被写体を撮像した1枚の画像データから算出された全被写体の特徴データと、予め記録されている被写体の種類毎の立体顔データから異なる表情の被写体の顔の平面画像データを生成していき、該生成された平面画像データから算出された被写体の特徴データと、を比較照合することにより顔を検出するので、顔検出の精度を向上させることができる。
例えば、被写体が笑っていたり、怒っている場合等であっても、顔を検出することができる。
As described above, in this modified example, the subject having different facial expressions from the feature data of all subjects calculated from one image data obtained by imaging all subjects and the three-dimensional face data for each type of subject recorded in advance. Since the face is detected by generating the plane image data of the face and comparing the feature data of the subject calculated from the generated plane image data, the accuracy of the face detection can be improved. it can.
For example, the face can be detected even when the subject is laughing or angry.

(14)また、上記変形例(13)の動作と図6のフローチャートに示す動作とを組み合わせるようにしてもよい。つまり、異なる角度と異なる表情の顔特徴データをそれぞれ算出していく。この場合は、図11のステップS111で顔がないと判断すると、次の顔の向きを設定してステップS101に戻る。このときは、ステップS103は、該表情が変化された各種類の被写体の立体顔データに基づいて、該設定された向きから見た各種類の被写体の顔の平面画像データを生成することになる。   (14) Further, the operation of the modification (13) may be combined with the operation shown in the flowchart of FIG. That is, face feature data having different angles and different facial expressions are calculated. In this case, if it is determined in step S111 in FIG. 11 that there is no face, the orientation of the next face is set and the process returns to step S101. At this time, step S103 generates plane image data of the face of each type of subject viewed from the set direction based on the three-dimensional face data of each type of subject whose expression is changed. .

(15)また、上記変形例(13)及び(14)形態においては、顔検出の場合について説明したが、個人認識(検出された顔領域に基づく3次元の個人認識、全領域に基づく3次元の個人認識)を行なう場合にも適用してもよい。   (15) In the modified examples (13) and (14), the case of face detection has been described. Individual recognition (three-dimensional personal recognition based on the detected face area, three-dimensional based on the entire area) (Personal recognition) may also be applied.

(16)また、図8に示す個人認識処理、及び、該個人認識を顔検出処理に適用する場合も、上記変形例(13)のように、生成された3次元モデルの表情を変えることにより表情の異なる平面画像データを順次生成していくようにしてもよい。この場合は、顔の向きを変えていくのではなく、顔の表情を変えていくようにしてもよいし、顔の向きを変えていくとともに、顔の表情を変えていくようにしてもよい。
この場合は、図8のステップS74で生成された3次元モデルの表情を認識し、該認識した表情を無表情に変えたり、他の表情に変えたりする。
(16) Also, when the personal recognition process shown in FIG. 8 and the personal recognition are applied to the face detection process, the expression of the generated three-dimensional model is changed as in the modified example (13). Planar image data with different facial expressions may be sequentially generated. In this case, instead of changing the orientation of the face, the facial expression may be changed, or the facial orientation may be changed and the facial expression may be changed. .
In this case, the facial expression of the three-dimensional model generated in step S74 in FIG. 8 is recognized, and the recognized facial expression is changed to an expressionless expression or changed to another facial expression.

(17)また、上記変形例(13)においては、被写体の種類毎に立体顔データを記録し、該記録している被写体の種類毎の立体顔データの表情を変化させるようにしたが、被写体の種類毎の立体顔データに代えて被写体の種類毎の2次元の顔データを記録させるようにしてもよい。そして、この2次元の顔データの表情を変えて顔を検出する。この場合は、3次元のデータを用いていないので、2次元の顔検出処理ということになる。   (17) In the modification (13), three-dimensional face data is recorded for each type of subject, and the expression of the three-dimensional face data for each type of recorded subject is changed. Instead of the three-dimensional face data for each type, two-dimensional face data for each type of subject may be recorded. Then, the face is detected by changing the expression of the two-dimensional face data. In this case, since three-dimensional data is not used, this is a two-dimensional face detection process.

(18)また、上記変形例(01)乃至(17)を任意に組み合わせた態様であってもよい。   (18) Moreover, the aspect which combined the said modification (01) thru | or (17) arbitrarily may be sufficient.

(19)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造、動作等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(19) The above embodiments of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle, structure, operation, and the like of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、撮像された画像データに基づいて顔を認識することができる機器であれば適用可能である。   Finally, in each of the above embodiments, the case where the imaging device of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above embodiment, and the main point is that the captured image data Any device capable of recognizing a face based on the above can be applied.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of 1st Embodiment. 全領域に基づく3次元の顔検出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the three-dimensional face detection process based on all the areas. 3次元モデルの生成過程を示す図である。It is a figure which shows the production | generation process of a three-dimensional model. 生成された被写体(ここでは顔)の3次元モデルを3角形ポリゴンで表したときの様子を示す図であるIt is a figure which shows a mode when the produced | generated three-dimensional model of the to-be-photographed object (here face) is represented by the triangular polygon. 全領域に基づく3次元の顔検出処理の他の動作を示すフローチャートである。It is a flowchart which shows other operation | movement of the three-dimensional face detection process based on an all area | region. 第3の実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of 3rd Embodiment. 検出された顔領域に基づく3次元の個人認識処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the three-dimensional personal recognition process based on the detected face area | region. 変形例(13)に記録されている顔の立体顔データの様子を示すものである。The state of the 3D face data of the face recorded in the modification (13) is shown. 変形例(13)における被写体の種類が人の場合における表情動作単位と筋肉の収縮との対応関係を示した表情単位動作テーブル、被写体の種類が人の場合における各表情とAUの組み合わせの対応関係を示した表情テーブルの様子を示すものである。Expression unit operation table showing the correspondence between facial expression motion units and muscle contraction when the subject type in the modification (13) is a person, and the correspondence relationship between each facial expression and AU when the subject type is a person It shows the state of the expression table showing. 変形例(13)における顔検出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the face detection process in a modification (13). 被写体の種類が人の場合における図11のステップS102で生成される各表情の顔の立体顔データの様子を示すものである。FIG. 12 shows the state of the three-dimensional face data of each facial expression generated in step S102 of FIG. 11 when the type of subject is a person.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Aperture 5 CCD
6 Driver 7 TG
8 Unit circuit 9 Image generator 10 CPU
11 Key input section 12 Memory 13 DRAM
14 Flash memory 15 Image display unit 16 Bus

Claims (25)

被写体を撮像する撮像手段と、
前記撮像手段により撮像された同一被写体を含む複数の画像データに基づいて、該被写体の3次元モデルを生成する3次元モデル生成手段と、
前記3次元モデル生成手段により生成された被写体の3次元モデルと、所定の顔データとを用いて、該撮像された画像データ内にある顔を認識する3次元顔認識手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject;
3D model generation means for generating a 3D model of the subject based on a plurality of image data including the same subject imaged by the imaging means;
3D face recognition means for recognizing a face in the imaged image data using the 3D model of the object generated by the 3D model generation means and predetermined face data;
An imaging apparatus comprising:
前記3次元モデル生成手段は、
同一被写体に対して撮影角度の異なる複数の画像データに基づいて、該被写体の3次元モデルを生成することを特徴とする請求項1記載の撮像装置。
The three-dimensional model generation means includes
The imaging apparatus according to claim 1, wherein a three-dimensional model of the subject is generated based on a plurality of pieces of image data having different shooting angles with respect to the same subject.
前記3次元モデル生成手段は、
前記撮像手段により撮像された画像データ毎に、被写体の特徴データを算出し、該算出した特徴データに基づいて、該被写体の3次元モデルを生成することを特徴とする請求項1又は2記載の撮像装置。
The three-dimensional model generation means includes
The feature data of a subject is calculated for each image data picked up by the image pickup means, and a three-dimensional model of the subject is generated based on the calculated feature data. Imaging device.
前記3次元顔認識手段は、
前記生成手段により生成された被写体の3次元モデルと、所定の立体顔データとを比較照合することにより、該撮像された画像データ内にある顔を認識することを特徴とする請求項1乃至3の何れかに記載の撮像装置。
The three-dimensional face recognition means
4. A face in the captured image data is recognized by comparing and collating a three-dimensional model of the subject generated by the generating unit with predetermined stereoscopic face data. The imaging device according to any one of the above.
前記3次元顔認識手段は、
前記3次元モデル生成手段により生成された被写体の3次元モデルの中に、前記所定の立体顔データと所定の範囲内で一致する部分に対応する前記撮像手段により撮像された画像データの領域に顔があると認識することを特徴とする請求項4記載の撮像装置。
The three-dimensional face recognition means
In the three-dimensional model of the subject generated by the three-dimensional model generation means, a face appears in the area of the image data imaged by the imaging means corresponding to a portion that matches the predetermined stereoscopic face data within a predetermined range. The imaging apparatus according to claim 4, wherein the imaging apparatus recognizes that there is.
前記生成手段により生成された被写体の3次元モデルから、複数の異なる向きから見た2次元の被写体の特徴データを算出していく特徴データ算出手段を備え、
前記3次元顔認識手段は、
前記特徴データ算出手段により順次算出された被写体の特徴データと、所定の平面顔データとを比較照合していくことにより、該撮像された画像データ内にある顔を認識することを特徴とする請求項1乃至3の何れかに記載の撮像装置。
Feature data calculating means for calculating feature data of a two-dimensional subject viewed from a plurality of different directions from a three-dimensional model of the subject generated by the generating means;
The three-dimensional face recognition means
The face in the captured image data is recognized by comparing and comparing the subject feature data sequentially calculated by the feature data calculation means with predetermined plane face data. Item 4. The imaging device according to any one of Items 1 to 3.
前記3次元顔認識手段は、
前記特徴データ算出手段により算出された被写体の特徴データの中に、所定の平面顔データと所定の範囲内で一致する特徴データがある場合は、該特徴データに対応する前記撮像手段により撮像された画像データの領域に顔があると認識することを特徴とする請求項6記載の撮像装置。
The three-dimensional face recognition means
If the feature data of the subject calculated by the feature data calculation unit includes feature data that matches predetermined plane face data within a predetermined range, the feature data is captured by the imaging unit corresponding to the feature data The imaging apparatus according to claim 6, wherein the image data area is recognized as having a face.
前記特徴データ算出手段は、
前記3次元顔認識手段により顔が認識された場合は、2次元の被写体の特徴データの算出を終了することを特徴とする請求項6又は7記載の撮像装置。
The feature data calculation means includes
The imaging apparatus according to claim 6 or 7, wherein when the face is recognized by the three-dimensional face recognition means, the calculation of the feature data of the two-dimensional subject is terminated.
前記撮像手段により撮像された1枚の画像データと、2次元の顔データとを比較照合することにより該画像データ内にある顔を認識する2次元顔認識手段を備え、
前記3次元モデル生成手段は、
前記2次元顔認識手段により顔が認識されなかった場合は、前記撮像手段により撮像された複数の画像データに基づいて被写体の3次元モデルを生成し、
前記3次元顔認識手段は、
前記2次元顔認識手段により顔が認識されなかった場合は、前記3次元モデル生成手段により生成された被写体の3次元モデルと、所定の顔データとを用いて、撮像された画像データ内にある顔を認識することを特徴とする請求項1乃至8の何れかに記載の撮像装置。
Comprising two-dimensional face recognition means for recognizing a face in the image data by comparing and collating one piece of image data picked up by the image pickup means with two-dimensional face data;
The three-dimensional model generation means includes
If the face is not recognized by the two-dimensional face recognition means, a three-dimensional model of the subject is generated based on a plurality of image data picked up by the image pickup means,
The three-dimensional face recognition means
When the face is not recognized by the two-dimensional face recognition means, it is in the imaged image data using the three-dimensional model of the subject generated by the three-dimensional model generation means and predetermined face data. The imaging apparatus according to claim 1, wherein a face is recognized.
前記3次元モデル生成手段は、
前記撮像手段により撮像された画像データの画角の中央領域、又は、ユーザによって指定された任意の領域、又は、肌色成分を有する領域の画像データに基づいて、被写体の3次元モデルを生成することを特徴とする請求項1乃至9の何れかに記載の撮像装置。
The three-dimensional model generation means includes
Generating a three-dimensional model of a subject based on image data of a central area of an angle of view of image data captured by the imaging unit, an arbitrary area specified by a user, or an area having a skin color component; The imaging apparatus according to claim 1, wherein:
前記所定の顔データは、
所定の種類の被写体の顔データ、又は、複数の種類の被写体の顔データ、又は1又は2以上の人物の顔データであることを特徴とする請求項1乃至10の何れかに記載の撮像装置。
The predetermined face data is
11. The imaging apparatus according to claim 1, wherein the imaging device is face data of a predetermined type of subject, face data of a plurality of types of subjects, or face data of one or more persons. .
前記3次元顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔を検出することを特徴とする請求項1乃至11の何れかに記載の撮像装置。
The three-dimensional face recognition means
The imaging apparatus according to claim 1, wherein a face in the image data captured by the imaging unit is detected.
前記3次元顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔が誰の顔であるかを個人認識することを特徴とする請求項1乃至11の何れかに記載の撮像装置。
The three-dimensional face recognition means
The image pickup apparatus according to claim 1, wherein a person who identifies a face in the image data picked up by the image pickup means is identified.
前記撮像手段により撮像された1枚の画像データと、2次元の顔データとを比較照合することにより顔を検出する2次元顔検出手段を備え、
前記3次元モデル生成手段は、
前記2次元顔検出手段により顔が検出された場合は、前記撮像手段により撮像された各画像データの該検出された顔の領域の画像データに基づいて、顔の3次元モデルを生成し、
前記3次元顔認識手段は、
前記3次元モデル生成手段により生成された顔の3次元モデルと、所定の顔データとを用いて、該撮像された画像データ内にある顔が誰の顔であるかを個人認識することを特徴とする請求項13記載の撮像装置。
Comprising two-dimensional face detection means for detecting a face by comparing and collating one piece of image data picked up by the image pickup means with two-dimensional face data;
The three-dimensional model generation means includes
When a face is detected by the two-dimensional face detection means, a three-dimensional model of the face is generated based on the image data of the detected face area of each image data imaged by the imaging means,
The three-dimensional face recognition means
Using the three-dimensional model of the face generated by the three-dimensional model generation means and predetermined face data, it is possible to personally recognize who the face in the captured image data is. The imaging apparatus according to claim 13.
被写体を撮像する撮像手段と、
前記撮像手段により撮像された1枚の画像データから被写体の特徴データを算出する特徴データ算出手段と、
所定の立体顔データから、2次元の顔の特徴データを算出していく顔特徴データ算出手段と、
前記顔特徴データ算出手段により順次算出された顔の特徴データと、前記特徴データ算出手段により算出された被写体の特徴データとを比較照合することにより、前記撮像手段により撮像された1枚の画像データ内にある顔を認識する顔認識手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject;
Feature data calculating means for calculating feature data of a subject from one piece of image data picked up by the image pickup means;
Face feature data calculating means for calculating feature data of a two-dimensional face from predetermined three-dimensional face data;
One piece of image data picked up by the image pickup means by comparing the face feature data sequentially calculated by the face feature data calculation means with the feature data of the subject calculated by the feature data calculation means. A face recognition means for recognizing a face inside,
An imaging apparatus comprising:
前記顔特徴データ算出手段は、
前記所定の立体顔データから、異なる向きから見た2次元の顔の特徴データを算出していくことを特徴とする請求項15記載の撮像装置。
The facial feature data calculation means includes:
16. The imaging apparatus according to claim 15, wherein feature data of a two-dimensional face viewed from different directions is calculated from the predetermined three-dimensional face data.
前記顔特徴データ算出手段は、
前記所定の立体顔データから、異なる表情の2次元の顔の特徴データを算出していくことを特徴とする請求項15又は16記載の撮像装置。
The facial feature data calculation means includes:
The imaging apparatus according to claim 15 or 16, wherein two-dimensional facial feature data with different expressions is calculated from the predetermined three-dimensional face data.
前記顔認識手段は、
前記特徴データ算出手段により算出された被写体の特徴データの中に、前記顔特徴データ算出手段により算出された顔の特徴データと所定の範囲内で一致する特徴データがある場合には、該一致した特徴データの部分に顔があると認識することを特徴とする請求項15乃至17の何れかに記載の撮像装置。
The face recognition means
If the subject feature data calculated by the feature data calculation means includes feature data that matches the face feature data calculated by the face feature data calculation means within a predetermined range, the matching data The imaging apparatus according to claim 15, wherein a face is recognized in the feature data portion.
前記顔特徴データ算出手段は、
前記顔認識手段により顔が認識された場合は、2次元の顔の特徴データの算出を終了することを特徴とする請求項15乃至18の何れかに記載の撮像装置。
The facial feature data calculation means includes:
19. The imaging apparatus according to claim 15, wherein when the face is recognized by the face recognition unit, the calculation of the two-dimensional face feature data is terminated.
前記特徴データ算出手段は、
前記撮像手段により撮像された1枚の画像データの画角の中央領域、又は、ユーザによって指定された任意の領域、又は、肌色成分を有する領域の画像データから被写体の特徴データを算出することを特徴とする請求項15乃至19の何れかに記載の撮像装置。
The feature data calculation means includes
Calculating feature data of a subject from image data of a central area of an angle of view of one piece of image data captured by the imaging unit, an arbitrary area specified by a user, or an area having a skin color component; The image pickup apparatus according to claim 15, wherein the image pickup apparatus is an image pickup apparatus.
所定の立体顔データは、
所定の種類の被写体の立体顔データ、若しくは複数の種類の被写体の立体顔データ、又は、1又は2以上の人物の立体顔データであることを特徴とする請求項15乃至20の何れかに記載の撮像装置。
The predetermined 3D face data is
21. The solid face data of a predetermined type of subject, the solid face data of a plurality of types of subjects, or the solid face data of one or more persons. Imaging device.
前記顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔を検出することを特徴とする請求項15乃至21の何れかに記載の撮像装置。
The face recognition means
The imaging apparatus according to any one of claims 15 to 21, wherein a face in the image data captured by the imaging unit is detected.
前記顔認識手段は、
前記撮像手段により撮像された画像データ内にある顔が誰の顔であるかを個人認識することを特徴とする請求項15乃至21の何れかに記載の撮像装置。
The face recognition means
The image pickup apparatus according to any one of claims 15 to 21, wherein the face of the face in the image data picked up by the image pickup means is personally recognized.
被写体を撮像する撮像処理と、
前記撮像処理により撮像された同一被写体を含む複数の画像データに基づいて、該被写体の3次元モデルを生成する3次元モデル生成処理と、
前記3次元モデル生成処理により生成された被写体の3次元モデルと、所定の顔データとを用いて、該撮像された画像データ内にある顔を認識する3次元顔認識処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。
Imaging processing for imaging a subject;
3D model generation processing for generating a 3D model of the subject based on a plurality of image data including the same subject captured by the imaging processing;
3D face recognition processing for recognizing a face in the captured image data using a 3D model of the subject generated by the 3D model generation processing and predetermined face data;
A program characterized by causing a computer to execute the processes described above.
被写体を撮像する撮像処理と、
前記撮像処理により撮像された1枚の画像データから被写体の特徴データを算出する特徴データ算出処理と、
所定の立体顔データから、2次元の顔の特徴データを算出していく顔特徴データ算出処理と、
前記顔特徴データ算出処理により順次算出された顔の特徴データと、前記特徴データ算出処理により算出された被写体の特徴データとを比較照合することにより、前記撮像処理により撮像された1枚の画像データ内にある顔を認識する顔認識処理と、
を含み、上記各処理をコンピュータに実行させることを特徴とするプログラム。
Imaging processing for imaging a subject;
Feature data calculation processing for calculating feature data of a subject from one piece of image data captured by the imaging processing;
Face feature data calculation processing for calculating feature data of a two-dimensional face from predetermined three-dimensional face data;
One piece of image data captured by the imaging process by comparing and comparing the facial feature data sequentially calculated by the facial feature data calculation process and the feature data of the subject calculated by the feature data calculation process Face recognition processing for recognizing the face inside,
And causing a computer to execute each of the processes described above.
JP2007203216A 2007-08-03 2007-08-03 Imaging apparatus, processing execution method of imaging apparatus, and program thereof Expired - Fee Related JP5088612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007203216A JP5088612B2 (en) 2007-08-03 2007-08-03 Imaging apparatus, processing execution method of imaging apparatus, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007203216A JP5088612B2 (en) 2007-08-03 2007-08-03 Imaging apparatus, processing execution method of imaging apparatus, and program thereof

Publications (2)

Publication Number Publication Date
JP2009037540A true JP2009037540A (en) 2009-02-19
JP5088612B2 JP5088612B2 (en) 2012-12-05

Family

ID=40439363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007203216A Expired - Fee Related JP5088612B2 (en) 2007-08-03 2007-08-03 Imaging apparatus, processing execution method of imaging apparatus, and program thereof

Country Status (1)

Country Link
JP (1) JP5088612B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071573A (en) * 2009-09-24 2011-04-07 Sanyo Electric Co Ltd Image processing apparatus
JP2011203791A (en) * 2010-03-24 2011-10-13 Yamatake Corp 2d/3d composite collation device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113186A (en) * 1998-10-01 2000-04-21 Mitsubishi Electric Inf Technol Center America Inc System and method for classifying gazing direction
JP2001222716A (en) * 2000-02-08 2001-08-17 Minolta Co Ltd Personal identification method and personal identification system
JP2001291108A (en) * 2000-04-05 2001-10-19 Honda Motor Co Ltd Device and method for image processing and program recording medium
JP2006202188A (en) * 2005-01-24 2006-08-03 Oki Electric Ind Co Ltd Image composition device and pattern checking method thereof
JP2007140868A (en) * 2005-11-17 2007-06-07 Konica Minolta Holdings Inc Authentication system, authentication method, and program
JP2007164498A (en) * 2005-12-14 2007-06-28 Konica Minolta Holdings Inc System and method for authentication, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113186A (en) * 1998-10-01 2000-04-21 Mitsubishi Electric Inf Technol Center America Inc System and method for classifying gazing direction
JP2001222716A (en) * 2000-02-08 2001-08-17 Minolta Co Ltd Personal identification method and personal identification system
JP2001291108A (en) * 2000-04-05 2001-10-19 Honda Motor Co Ltd Device and method for image processing and program recording medium
JP2006202188A (en) * 2005-01-24 2006-08-03 Oki Electric Ind Co Ltd Image composition device and pattern checking method thereof
JP2007140868A (en) * 2005-11-17 2007-06-07 Konica Minolta Holdings Inc Authentication system, authentication method, and program
JP2007164498A (en) * 2005-12-14 2007-06-28 Konica Minolta Holdings Inc System and method for authentication, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071573A (en) * 2009-09-24 2011-04-07 Sanyo Electric Co Ltd Image processing apparatus
JP2011203791A (en) * 2010-03-24 2011-10-13 Yamatake Corp 2d/3d composite collation device

Also Published As

Publication number Publication date
JP5088612B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5099488B2 (en) Imaging apparatus, face recognition method and program thereof
US9479692B2 (en) Image capturing apparatus and method for controlling the same
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
KR101421716B1 (en) Face detection device, imaging apparatus and face detection method
US9147106B2 (en) Digital camera system
CN103988227B (en) The method and apparatus locked for image capturing target
JP4848965B2 (en) Imaging device
WO2016016984A1 (en) Image pickup device and tracking method for subject thereof
JP2018050146A (en) Search device, imaging device thereof, and search method
US9402020B2 (en) Focus detection apparatus and control method for the same
KR20100055946A (en) Method and apparatus for generating thumbnail of moving picture
JP5030022B2 (en) Imaging apparatus and program thereof
JP4290164B2 (en) Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus
JP4853707B2 (en) Imaging apparatus and program thereof
CN105744179A (en) Image Capture Apparatus Capable of Processing Photographed Images
JP2004320285A (en) Digital camera
JPWO2015098110A1 (en) Imaging apparatus, imaging system, and imaging method
KR101665175B1 (en) Image acquisition apparatus,image acquisition method and recording medium
JP5267695B2 (en) Imaging apparatus, face recognition method and program thereof
JP2014033265A (en) Imaging device, imaging method, and program
JP5088612B2 (en) Imaging apparatus, processing execution method of imaging apparatus, and program thereof
US12002279B2 (en) Image processing apparatus and method, and image capturing apparatus
JP2007005966A (en) System for calculation amount of exposure, and control method and control program thereof
JP2009182880A (en) Imaging apparatus and its program
JP2009163422A (en) Image processing device, image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5088612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees