JP5099488B2 - 撮像装置、顔認識方法およびそのプログラム - Google Patents

撮像装置、顔認識方法およびそのプログラム Download PDF

Info

Publication number
JP5099488B2
JP5099488B2 JP2007225922A JP2007225922A JP5099488B2 JP 5099488 B2 JP5099488 B2 JP 5099488B2 JP 2007225922 A JP2007225922 A JP 2007225922A JP 2007225922 A JP2007225922 A JP 2007225922A JP 5099488 B2 JP5099488 B2 JP 5099488B2
Authority
JP
Japan
Prior art keywords
face
face recognition
mode
dimensional
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007225922A
Other languages
English (en)
Other versions
JP2009060379A (ja
JP2009060379A5 (ja
Inventor
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007225922A priority Critical patent/JP5099488B2/ja
Priority to US12/193,279 priority patent/US8218815B2/en
Priority to CN2008102149072A priority patent/CN101377815B/zh
Priority to CN201210211324.0A priority patent/CN102752509B/zh
Priority to CN201410360488.9A priority patent/CN104092947B/zh
Publication of JP2009060379A publication Critical patent/JP2009060379A/ja
Publication of JP2009060379A5 publication Critical patent/JP2009060379A5/ja
Priority to US13/493,679 priority patent/US8611605B2/en
Application granted granted Critical
Publication of JP5099488B2 publication Critical patent/JP5099488B2/ja
Priority to US14/012,684 priority patent/US8744129B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Description

本発明は、撮像装置、顔認識方法およびそのプログラムに係り、詳しくは、顔を認識する機能有した撮像装置、顔認識方法およびそのプログラムに関する。
近年、電子カメラ等の撮像装置においては、被写体の顔を認識する技術が登場したことにより、該認識された顔に対してピントを合わせたり、顔が適正露出となるように露出条件を設定する技術がある(特許文献1)。
公開特許公報 特開2007−081991
しかしながら、従来の顔認識は、人間の顔、それも正面の顔などある特定の向きから撮像された場合のみを対象としており、横顔やサングラスの装着時などは認識することができなかった。また、人間以外の顔、例えば、猫や犬などの顔は認識することができなかった。
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、顔認識の精度を向上させることができる撮像装置、顔認識方法およびそのプログラムを提供することを目的とする。
上記目的達成のため、請求項1記載の発明による撮像装置は、被写体の認識機能を有した撮像装置であって、被写体を撮像する撮像手段と、被写体の顔を認識する際に実行する顔認識処理の内容が各々異なる複数の顔認識モードを備え、該複数の顔認識モードの中から何れかの顔認識モードを設定する顔認識モード設定手段と、前記撮像手段により撮像された画像データに対して、前記顔認識モード設定手段により設定された顔認識モードに応じた顔認識処理を実行することにより、該撮像された画像データ内にある顔を認識する顔認識手段と、個人の顔に関する個人情報を登録する個人登録手段と、を備え、前記顔認識モード設定手段は、設定可能な顔認識モードとして、前記個人登録手段により登録された特定の個人の顔を認識する第1の顔認識モードと、前記個人登録手段に登録されていない人物を含めて人の顔を認識する第2の顔認識モードを含み、前記顔認識手段は、前記第1の顔認識モードが設定された場合には、前記個人登録手段により登録された個人情報に基づいて特定の個人の顔を認識する顔認識処理を実行し、前記第2の顔認識モードが設定された場合には、前記個人登録手段に個人情報が登録されていない人物を含めて人の顔を認識する顔認識処理を実行することを特徴とする。
また、例えば、請求項2に記載されているように、前記顔認識手段は、前記顔識別モードが設定された場合には、前記顔識別処理を実行するとともに、この顔識別処理で識別された特定の個人の顔を対象として所定の処理を行い、前記顔検出モードが設定された場合には、前記顔検出処理を実行するとともに、この顔検出処理で検出された人の顔を対象として所定の処理を行うようにしてもよい。
また、例えば、請求項3に記載されているように、前記顔認識手段は、前記顔識別処理または前記顔検出処理により検出または識別された顔を対象として、AF処理、露出制御、トリミング処理のうちのいずれかの処理を行うようにしてもよい。
また、例えば、請求項4に記載されているように、前記顔認識手段は、前記顔識別モードが設定された場合には、前記顔検出処理を実行した後、この顔検出処理で検出された人の顔を対象として、前記顔識別処理を実行するとともに、この顔識別処理で識別された特定の個人の顔を対象として所定の処理を行い、前記顔検出モードが設定された場合には、前記顔検出処理を実行した後、前記顔識別処理を実行することなく、この顔検出処理で検出された人の顔を対象として所定の処理を行うようにしてもよい。
また、例えば、請求項5に記載されているように、前記顔認識モード設定手段は、前記撮像手段により撮像される画像データに基づいて自動的に顔認識モードを設定するようにしてもよい。
また、例えば、請求項6に記載されているように、前記顔認識モード設定手段は、ユーザーが任意に顔認識モードを設定するようにしてもよい。
また、例えば、請求項7に記載されているように、前記顔認識モード設定手段は、ユーザーが任意に顔認識モードを設定して顔認識処理を実行した後、この顔認識処理の結果に応じて更に他の顔認識モードを設定するようにしてもよい。
また、例えば、請求項8に記載されているように、前記顔認識手段は、前記顔識別モードが設定された場合には、前記顔検出処理を実行した後、この顔検出処理で検出された人の顔を対象として、前記顔識別処理を実行するようにしてもよい。
また、例えば、請求項9に記載されているように、前記顔認識モード設定手段は、前記顔検出モードを設定して前記顔検出処理により人の顔を検出させた後、前記顔識別モードを設定して前記顔識別処理により個人の顔を識別させるようにしてもよい。
また、例えば、請求項10に記載されているように、前記顔認識モード設定手段は、複数の顔認識モードの1つを設定し、前記顔認識手段は、設定された1つの顔認識モードで顔認識処理を実行するようにしてもよい。
また、例えば、請求項11に記載されているように、前記顔認識モード設定手段は、複数の顔認識モードを同時に設定し、前記顔認識手段は、同時に設定された全ての顔認識モードで顔認識処理を実行するようにしてもよい。
また、例えば、請求項12に記載されているように、前記顔認識モード設定手段は、前記顔検出モードと前記顔識別モードを同時に設定し、前記顔認識手段は、同時に設定された前記顔識別処理と前記顔検出処理を実行するようにしてもよい。
上記目的達成のため、請求項13記載の発明による顔認識方法は、コンピュータに、被写体の顔を認識する際に実行する顔認識処理の内容が各々異なる複数の顔認識モードを備え、該複数の顔認識モードの中から何れかの顔認識モードを設定する顔認識モード設定処理と、画像データに対して、前記顔認識モード設定処理により設定された顔認識モードに応じた顔認識処理を実行することにより、該撮像された画像データ内にある顔を認識する顔認識処理と、個人の顔に関する個人情報を登録する個人登録処理と、を実行させる顔認識方法であって、前記顔認識モード設定処理は、設定可能な顔認識モードとして、前記個人登録処理により登録された特定の個人の顔を認識する第1の顔認識モードと、前記個人登録処理で登録されていない人物を含めて人の顔を認識する第2の顔認識モードを含み、前記顔認識処理は、前記第1の顔認識モードが設定された場合には、前記個人登録処理により登録された個人情報に基づいて特定の個人の顔を認識する顔認識処理を実行し、前記第2の顔認識モードが設定された場合には、前記個人登録処理で個人情報が登録されていない人物を含めて人の顔を認識する顔認識処理を実行することを特徴とする。
上記目的達成のため、請求項14記載の発明によるプログラムは、撮像手段を備えたコンピュータを、被写体の顔を認識する際に実行する顔認識処理の内容が各々異なる複数の顔認識モードを備え、該複数の顔認識モードの中から何れかの顔認識モードを設定する顔認識モード設定手段、前記撮像手段により撮像された画像データに対して、前記顔認識モード設定手段により設定された顔認識モードに応じた顔認識処理を実行することにより、該撮像された画像データ内にある顔を認識する顔認識手段、個人の顔に関する個人情報を登録する個人登録手段、として機能させ、前記顔認識モード設定手段は、設定可能な顔認識モードとして、前記個人登録手段により登録された特定の個人の顔を認識する第1の顔認識モードと、前記個人登録手段に登録されていない人物を含めて人の顔を認識する第2の顔認識モードを含み、前記顔認識手段は、前記第1の顔認識モードが設定された場合には、前記個人登録手段により登録された個人情報に基づいて特定の個人の顔を認識する顔認識処理を実行し、前記第2の顔認識モードが設定された場合には、前記個人登録手段に個人情報が登録されていない人物を含めて人の顔を認識する顔認識処理を実行することを特徴とする。
本願発明によれば、顔認識の精度を向上させることができる。
以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、ドライバ6、TG(timing generator)7、ユニット回路8、画像生成部9、CPU10、キー入力部11、メモリ12、DRAM13、フラッシュメモリ14、画像表示部15、バス16を備えている。
撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズ等を含む。そして、撮影レンズ2にはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に沿って駆動させるフォーカスモータ、ズームモータと、CPU10から送られてくる制御信号にしたがって、フォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている(図示略)。
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞り4とは、撮影レンズ2から入ってくる光の量を制御する機構のことをいう。
CCD5は、ドライバ6によって駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。このドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10により制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD5から出力された撮像信号はユニット回路8を経てデジタル信号として画像生成部9に送られる。
画像生成部9は、ユニット回路8から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成し、該生成された輝度色差信号の画像データはDRAM13(バッファメモリ)に記憶される。つまり、画像生成部9は、CCD5から出力された画像データに対して画像処理を施す。
CPU10は、CCD5への撮像制御、画像データの圧縮・伸張処理、フラッシュメモリ14への記録処理、画像データの表示処理を行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU10はクロック回路を含み、タイマーとしての機能も有する。
特に、CPU10は、複数種類の顔検出モードの中から何れかの顔検出モードを設定する顔検出モード設定部101と、画像データ内にある顔を認識する顔認識部102とを有する。
この顔検出モード設定部101は、設定する顔検出モードの種類を記憶する記憶領域を備え、最新に設定された顔検出モードのみが記憶される。
また、この顔認識部102は、2次元のデータのみを用いて顔を認識する機能(2次元の顔認識処理)と、3次元のデータを用いて顔を認識する機能(3次元の顔認識処理)とを有する。また、この顔認識とは、画像データ内にある顔を検出したり、画像データ内にある顔が誰なのか?何であるか?を具体的に識別したりすることをいう。つまり、顔検出、顔識別を総称して顔認識という。
キー入力部11は、半押し全押し可能なシャッタボタン、モード切替キー、十字キー、SETキー、被写体追従On/Offキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10が各部を制御するのに必要な制御プログラム、及び必要なデータ(被写体の種類毎(人、犬、猫等)の顔データを設定した顔データテーブル)が記録されており、CPU10は、該プログラムに従い動作する。なお、このメモリ12は書き換え可能な不揮発性メモリである。
図2は、メモリ12に記録されている顔データテーブルの様子を示すものである。
図2を見ると分かるように、被写体の種類を大まかに人と動物に分け、更に、動物は、犬、猫、馬・・・、というように種類毎に分かれている。そして、各被写体の種類毎に顔データが記録されている。また、顔データは、2次元(平面)と3次元(立体)と2種類有り、該被写体の種類毎に、2次元、又は/及び3次元の顔データが設定されている。ここでは、人の顔データは、2次元と3次元ともに設定されており、動物の顔データは3次元のみである。つまり、動物の場合は2次元の顔データが設定されていない。動物の顔は見る角度によって極端に変わり、立体的であるためである。
DRAM13は、CCD5によって撮像された後、CPU10に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとして使用される。
フラッシュメモリ14は、圧縮された画像データを保存する記録媒体である。
画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。
B.デジタルカメラ1の動作
第1の実施の形態におけるデジタルカメラ1の動作を図3及び図4のフローチャートに従って説明する。
ユーザのモード切替キーの操作により、顔検出静止画撮影モードに設定されると、ステップS1で、CPU10は、複数種類の顔検出モードを画像表示部15に一覧表示させる。
ここで、複数種類の顔検出モードは、大きく分けて、人の顔を検出する顔検出モード(人用の顔検出モード)と動物(犬、猫、馬等)の顔を検出する顔検出モード(動物用の顔検出モード)とに分かれ、更に、動物用の顔検出モードは、犬の顔を検出する顔検出モード(犬用の顔検出モード)、猫の顔を検出する顔検出モード(猫用の顔検出モード)、馬の顔を検出する顔検出モード(馬用の顔検出モード)というように動物の種類毎に分かれる。つまり、複数種類の顔検出モードは、顔検出の対象となる被写体の種類毎にあり、これらの顔検出モードが画像表示部15に一覧表示される。このとき、カーソルを所定の種類の顔検出モードに合わせて表示させる。
次いで、ステップS2で、CPU10は、ユーザによって何れかの顔検出モードが選択されたか否かを判断する。この判断はSETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
このとき、ユーザは十字キーを操作することにより、選択したい種類の顔検出モードにカーソルを合わせることができ、該カーソルが合わさっている種類の顔検出モードでOKと思う場合はSETキーの操作を行なう。
ステップS2で、顔検出モードが選択されたと判断すると、ステップS3に進み、CPU10の顔検出モード設定部101は、該SETキーの操作が行なわれたときにカーソルが合わさっている種類の顔検出モードに設定する。
顔検出モードの設定を行なうと、ステップS4に進み、CPU10は、CCD5に所定のフレームレートで被写体を撮像させる処理を開始させ、CCD5により順次撮像され画像生成部9によって生成された輝度色差信号のフレーム画像データ(YUVデータ)をバッファメモリ(DRAM13)に記憶させていき、該記憶されたフレーム画像データに基づく画像を順次画像表示部15に表示させていくという、いわゆるスルー画像表示を開始する。
次いで、ステップS5で、CPU10は、被写体追従On/Offキーの操作が行なわれたか否かを判断する。
ステップS5で、被写体追従キーの操作が行われたと判断すると、ステップS6に進み、CPU10は、現在の被写体追従モードがOnであるか否かを判断する。
ステップS6で、現在の被写体追従モードがOnでない、つまり、Offであると判断すると、ステップS7に進み、CPU10は、被写体追従モードをOffからOnに切り替えて、ステップS9に進む。
一方、ステップS6で、現在の被写体追従モードがOnであると判断すると、ステップS8に進み、CPU10は、被写体追従モードをOnからOffに切り替えて、ステップS9に進む。
また、ステップS5で、被写体追従On/Offキーの操作が行なわれていないと判断すると、そのままステップS9に進む。
ステップS9に進むと、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
このとき、ユーザは、撮影したい被写体(メイン被写体)を画角内に収めて構図を決めてから撮影の準備を指示するためシャッタボタンを半押し操作する。
ステップS9で、シャッタボタンが半押しされていないと判断するとステップS5に戻り、シャッタボタンが半押しされたと判断すると、ステップS10に進み、CPU10の顔認識部102は、ステップS3で設定された顔検出モードの種類に応じた顔検出処理を行う。この顔検出処理は後で詳細に説明する。この顔検出処理により設定された顔検出モードの種類の顔が検出されることになる。例えば、人用の顔検出モードが設定されている場合は、顔検出処理により人の顔が検出され、馬用の顔検出モードが設定されている場合は、顔検出処理により馬の顔が検出される。
顔検出処理を行うと、ステップS11に進み、CPU10は、現在の被写体追従モードがOnであるか否かを判断する。
ステップS11で、被写体追従モードがOnでない、つまり、Offであると判断すると、ステップS12に進み、CPU10は、ステップS10の顔検出処理により顔を検出することができたか否かを判断する。
ステップS12で、顔を検出することができたと判断すると、ステップS13に進み、CPU10は、該検出した顔に対してコントラスト検出方式によるAF処理を行って、ステップS15に進む。このコントラスト検出方式によるAF処理とは、周知技術なので詳しく説明しないが、フォーカス対象となる領域の画像データの高周波成分が最も大きくなるレンズ位置に、フォーカスレンズを合わせることにより、該フォーカス対象となる領域の画像のピントを合わせるというものである。
一方、ステップS12で、顔を検出することができなかったと判断すると、ステップS14に進み、CPU10は、所定の領域(例えば、画角の中央領域)に対してコントラスト検出方式によるAF処理を行って、ステップS15に進む。
なお、ステップS13、ステップS14では、コントラスト検出方式によるAF処理を行うようにしたが、他の方式(例えば、位相差方式)によってAF処理を行うようにしてもよい。要は、ピントを合わせたい領域に対してAF処理を行うことができればよい。
ステップS15に進むと、CPU10は、シャッタボタンが全押しされたか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS15で、シャッタボタンが全押しされていないと判断すると、シャッタボタンが全押しされるまでステップS15に留まり、シャッタボタンが全押しされたと判断すると、ステップS16に進み、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録する処理を行う。
一方、ステップS11で、被写体追従モードがOnであると判断すると、図4のステップS21に進み、CPU10は、ステップS10の顔検出処理により顔を検出することができたか否かを判断する。
ステップS21で、顔を検出することができたと判断すると、ステップS22に進み、CPU10の顔認識部102は、該検出された顔を2次元的に検出していくことにより、該検出された顔に対して追従していく追従処理を開始して、ステップS23に進む。ここで、2次元的に顔を検出するとは、2次元のデータのみを用いて顔検出することを指し、このステップS22での、2次元的に顔を検出する処理は、前述のステップS10の顔検出処理により検出された顔領域の2次元画像から抽出した特徴データを登録し、ブロックマッチング法などを用いて該登録した特徴データを有する顔を検出していく。このブロックマッチング法は、周知技術なので詳しく説明しないが、2枚の画像データを用いて、一方の画像データのある領域の画像データと最も相関度が高くなる他方の画像データの領域を検出する方法のことをいう。
一方、ステップS21で、顔を検出することができないと判断すると、そのままステップS23に進む。
ステップS23に進むと、CPU10は、シャッタボタンが全押しされたか否かを判断する。
ステップS23で、シャッタボタンが全押しされていないと判断すると、ステップS24に進み、CPU10は、該追従している顔を見失ったか否かを判断する。つまり、ステップS22の2次元的に顔を検出する処理により顔を検出することができなくなったか否かを判断する。なお、ステップS21で顔が検出できないと判断された場合、つまり、図3のステップS10の顔検出処理により追従元となる顔がそもそも検出できないと判断された場合も顔を見失ったと判断する。
ステップS24で、顔を見失っていないと判断するとステップS23に戻り、ステップS24で、顔を見失ったと判断すると、図3のステップS10に戻る。これにより、顔を見失った場合は再びステップS3で設定された顔検出モードの種類に応じた顔検出処理を行うことになる。
一方、ステップS23で、シャッタボタンが全押しされたと判断すると、ステップS25に進み、CPU10は、該追従している顔に対してコントラスト検出方式によるAF処理を行う。つまり、シャッタボタンが全押しされた直前に2次元的に検出された顔に対してAF処理を行う。
次いで、ステップS26で、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録する処理を行う。
C.設定された顔検出モードの種類に応じた顔検出処理について
次に、設定された顔検出モードの種類に応じた顔検出処理の動作を図5のフローチャートにしたがって説明する。
図3のステップS10に進むと、図5のステップS31に進み、CPU10の顔認識部102は、現在、人用の顔検出モードが設定されているか否かを判断する。
ステップS31で、人用の顔検出モードが設定されていると判断すると、ステップS32に進み、CPU10の顔認識部102は、2次元の顔検出処理により人の顔を検出する。
ここでの、2次元の顔検出処理は、直近に撮像されたフレーム画像データから全被写体の特徴データ(2次元の特徴データ)を算出し、該算出した被写体の特徴データと、図2に示す顔データテーブルに設定されている人の2次元の顔データとを比較照合することにより、人の顔がどこにあるかを検出する。
また、「全被写体」とは、CCD5によって撮像された全ての被写体のことを指す。例えば、建物の前に立っているメイン被写体である人を撮像した場合は、全被写体は建物と人ということになる。つまり、画像データの全領域から被写体の特徴データを算出する。
また、全被写体の特徴データとは、例えば、撮影された全被写体が建物とその前に立っている人の場合は、建物及び人の特徴点を複数抽出し、該抽出した特徴点の座標位置や相対位置関係等を数値化したデータのことをいう。この特徴点の抽出により、目、鼻、口、顔の輪郭等から顔の特徴点も複数抽出される。つまり、全被写体の特徴データは、顔だけではなく撮像された全ての被写体の特徴点に基づいて数値化されたデータである。
また、この比較照合は、生成した全被写体の特徴データの中に顔データと一致する部分かあるか否かを判断するためのものである。したがって、この比較照合は、生成された全被写体の特徴データの各部と顔データとを比較照合していく(サーチしていく)ことにより、各部との一致度を得る。
ステップS33で、CPU10の顔認識部102は、画像内に人の顔があるか否かを判断する。つまり、2次元の顔検出処理により人の顔を検出することができたか否かを判断する。つまり、算出した全被写体の特徴データの中に、顔データと所定値以上で(所定の範囲内で)一致する部分があるか否かを判断する。
ステップS33で、人の顔があると判断すると、ステップS38に進み、CPU10の顔認識部102は、顔を検出することができたと判断する。
一方、ステップS33で、人の顔がないと判断すると、ステップS34に進み、CPU10の顔認識部102は、顔らしきものがあるか否かを判断する。この顔らしきものとは、ステップS32の全被写体の特徴データと、人の2次元の顔データとの比較照合により、口と鼻はあるが片目、若しくは両目が検出されなかったり(人が横を向いている場合、サングラスをしている場合)、目があるが鼻と口が検出されなかったり場合(マスクをしている場合)のことである。つまり、顔データに基づく顔のパーツが一部検出されなかった場合のことである。
ステップS34で、顔らしきものがあると判断されると、ステップS35に進み、CPU10の顔認識部102は、該検出された顔らしきものがある領域に基づいて3次元の顔検出処理により人の顔を検出する処理を行って、ステップS37に進む。この3次元の顔検出処理については後で説明する。これにより、3次元の顔検出処理による処理負担を軽減することができる。
一方、ステップS31で、人用の顔検出モードが設定されていないと判断した場合、又は、ステップS34で、顔らしきものがないと判断した場合は、ステップS36に進み、CPU10の顔認識部102は、フレーム画像データの全領域に基づいて3次元の顔検出処理により、現在設定されている顔検出モードの種類の顔を検出する処理を行って、ステップS37に進む。この3次元の顔検出処理については後で説明する。ここで、ステップS34で顔らしきものがないと判断されることによりステップS36に進んだ場合は、ステップS36において、フレーム画像データの全領域に基づいて3次元の顔検出処理により人の顔を検出する処理が行われることになる。
ステップS37に進むと、CPU10の顔検出部102は、画像内に人の顔があるか否かを判断する。つまり、3次元の顔検出処理により顔を検出することができたか否かを判断する。
ステップS37で、画像内に顔があると判断すると、ステップS38に進み、顔認識部102は、顔を検出することができたと判断し、ステップS37で、顔がないと判断すると、ステップS39に進み、CPU10の顔認識部102は、顔を検出することができないと判断する。
このステップS38で、顔を検出することができたと判断すると、図3のステップS12、図4のステップS21で顔を検出することができたと判断し、ステップS39で、顔を検出することができないと判断すると、図3のステップS12、図4のステップS21で顔を検出することができないと判断する。
D.3次元の顔検出処理について
次に、3次元の顔検出処理の動作を説明する。2次元の顔検出処理は、2次元的に顔を検出するが、つまり、撮像されたフレーム画像データに基づく2次元の被写体の特徴データと2次元の顔データとを比較照合することにより、該フレーム画像データ内にある顔を検出していたが、3次元の顔検出処理は、3次元のデータを用いて顔を検出するというものである。
ここでは、3次元のデータを用いて顔を検出する動作を2つ紹介するが、これに限られるものではなく、要は、3次元データを用いて被写体の顔を検出するものであればよい。
D−1.1つ目の3次元の顔検出処理について
まず、3次元の顔検出処理の動作を図6のフローチャートにしたがって説明する。
図5のステップS35及びステップS36で、3次元の顔検出処理を行うことにより顔を検出する場合は、図6のステップS51に進み、CPU10の顔認識部102は、異なる撮影角度でメイン被写体の撮影を促す表示を行なう。例えば、「撮影したい被写体を異なる角度から撮影してください。」というような表示を行う。これにしたがって、ユーザは撮影角度を変えてメイン被写体を撮像することになる。なお、このときユーザは、メイン被写体となる顔の画像内での位置を変えずに撮影角度を変えることが好ましい。
次いで、ステップS52で、CPU10の顔認識部102は、異なる撮影角度でのメイン被写体の撮影を促す表示を行なってから所定時間(例えば、1秒)が経過したか否かを判断する。このとき、CPU10は、スルー画像表示用に撮像された複数枚のフレーム画像データをバッファメモリに保持させておく。
ステップS52で、所定時間が経過していないと判断すると所定時間が経過するまでステップS52に留まり、所定時間が経過したと判断すると、ステップS53に進み、CPU10の顔認識部102は、撮像された複数枚のフレーム画像データから、被写体の特徴データをそれぞれ算出する。
このとき、図5のステップS36での3次元の顔検出処理の場合は、撮像されたフレーム画像データの全領域に基づいて被写体の特徴データ(全被写体の特徴データ)を算出する。
また、図5のステップS35での3次元の顔検出処理の場合は、撮像された各フレーム画像データのうち、顔らしきものがあると判断された領域の画像データに基づいて被写体の特徴データ(顔らしき被写体の特徴データ)を算出する。
ここで、フレーム画像データから算出される全被写体の特徴データとは、例えば、撮影された全被写体が建物とその前に立っている人の場合は、建物及び人の特徴点を複数抽出し、該抽出した特徴点の座標位置や相対位置関係等を数値化したデータのことをいう。この特徴点の抽出により、目、鼻、口、顔の輪郭等から顔の特徴点も複数抽出される。つまり、全被写体の特徴データは、顔だけではなく撮像された全ての被写体の特徴点に基づいて数値化されたデータのことである。
また、顔らしき被写体の特徴データとは、顔らしきものがあると判断された領域内で撮像されている全ての被写体の特徴データに基づいて数値化されたデータのことである。
なお、ここでは、顔らしきものがあると判断された領域の位置、大きさを撮像された全てのフレーム画像データに対して同じにするようにしたが、所定時間が経過するまで各フレーム画像データに対して2次元の顔検出処理を行い続けることにより、各フレーム画像データ毎に顔らしき領域を検出し、各フレーム画像データ毎に該検出された領域の画像データから被写体の特徴データ(顔らしき被写体の特徴データ)を算出するようにしてもよい。この場合は、この2次元の顔検出処理により顔が検出された場合は、もはや3次元の顔検出処理を行う必要がないので図5のステップS38に進むようにしてもよい。
各フレーム画像データから被写体の特徴データを算出すると、ステップS54に進み、CPU10の顔認識部102は、該算出された各フレーム画像データの被写体の特徴データに基づいて、被写体の3次元モデルを生成する。
この3次元モデルの生成は、既に周知技術なので詳しく説明しないが、ある画像の特徴点と、該特徴点に対応する他の画像の特徴点とに基づいて、三角測量演算によって被写体の3次元モデルを生成する(モデリング処理)。
また、図7は、生成された被写体(ここでは猫科の動物の顔のみ)の3次元モデルをサーフェスモデルの一種である多角形ポリゴン(ここでは、3角形ポリゴン)で表したときの様子を示す図である。
なお、サーフェスモデルでなく、ワイヤーフレームモデルやソリッドモデル等他の方法によって表すようにしてもよい。
次いで、ステップS55で、CPU10の顔認識部102は、該生成した被写体の3次元モデルと、図2に示す顔データテーブルに記録されている現在設定されている顔検出モードの種類の立体顔データ(3次元の顔データ)とを比較照合する。
例えば、図5のステップS35の場合は、該生成した被写体の3次元モデルと、図2に示す顔データテーブルに設定されている人の立体顔データとを比較照合し、図5のステップS36の場合は、たとえば、犬用の顔検出モードが設定されている場合は、該生成した被写体の3次元モデルと、図2に示す顔データテーブルに設定されている犬の立体顔データとを比較照合する。
また、この比較照合は、生成した被写体の3次元モデルの中に立体顔データと一致する部分があるか否かを判断するためのものである。したがって、この比較照合は、生成された3次元モデルの各部と立体顔データとを比較照合していく(サーチしていく)ことにより、各部との一致度を得る。
次いで、ステップS56で、CPU10の顔認識部102は、該生成した被写体の3次元モデルの中に、該比較照合を行なった立体顔データと所定値以上で一致する部分があるか否かを判断する。つまり、所定の範囲内で立体顔データと一致する部分があるか否かを判断することになる。この一致する部分とは、被写体の3次元モデルの中の1部であってもよいし、被写体の3次元モデルの全部であってもよい。要は、立体顔データと所定値以上で一致するものがあるかを判断できればよい。
ステップS56で、所定値以上で一致する部分があると判断した場合は、ステップS57に進み、CPU10の顔認識部102は、所定値以上で一致する部分を顔と判断し、該所定値以上で一致した部分に対応する撮像されたフレーム画像データ上の領域を顔領域とする。つまり、フレーム画像データ上の顔領域を検出する。
この所定値以上で一致した部分に対応するフレーム画像データ上の領域とは、被写体の3次元モデルの中で、一致する部分(顔部分)の特徴データに対応するフレーム画像データ上の領域であり、該特徴データに対応するフレーム画像データは複数あるので(複数枚のフレーム画像データに基づいて被写体モデルを生成したため)、所定値以上で一致した部分に対応する、生成元となった複数のフレーム画像データのうち、直近に撮像されたフレーム画像データ上の領域であってもよいし、所定値以上で一致した部分に対応する生成元となった全てのフレーム画像データ上の領域から構成される領域であってもよい。
一方、ステップS56で、所定値以上で一致する部分がないと判断すると、ステップS58に進み、CPU10の顔認識部102は、撮像されたフレーム画像データ内に顔がないと判断する。
このステップS57で顔領域を検出すると、図5のステップS38で顔を検出することができたと判断し、図3のステップS12、図4のステップS21で顔を検出できたと判断する。また、ステップS58で顔がないと判断すると、図5のステップS39で顔を検出することができないと判断し、図3のステップS12、図4のステップS21で顔を検出できないと判断する。
このように、1つ目の3次元の顔検出処理は、同一被写体を撮像した複数のフレーム画像データから、該被写体の3次元モデルを生成し、立体顔データと比較照合することにより顔を検出するので、顔検出の精度を向上させることができる。
例えば、被写体の顔が横を向いていたり、サングラスを装着している場合であっても検出することができる。
また、立体顔データと生成した3次元モデルとを比較照合するので、人の顔に限らず、犬や猫等の動物の顔等も検出することができる。例えば、馬など動物の顔は、見る角度が違うと極端に顔の形が変わってしまうが、3次元とすることにより、精度よく顔を検出することができる。
D−2.2つ目の3次元の顔検出処理について
次に、2つ目の3次元の顔検出処理の動作を図8のフローチャートにしたがって説明する。
図5のステップS35及びステップS36で、3次元の顔検出処理を行うことにより顔を検出する場合は、図8のステップS61に進み、CPU10の顔認識部102は、顔の向きを正面と設定する。
次いで、ステップS62で、CPU10の顔認識部102は、図2の顔データテーブルに記録されている現在設定されている顔検出モードの種類の立体顔データに基づいて、現在設定されている向きから見た顔の平面(2次元)画像データを生成する(レンダリング処理)。ここでは、設定されている向きは正面なので、設定された顔検出モードの種類の顔を正面から見た顔の平面画像データを生成することになる。この立体的なものから平面画像データを生成する技術は周知技術なので詳しく説明しないが、陰面消去や陰線消去などを行なうことによって行なわれる。
たとえば、設定されている顔検出モードが人用である場合は、図2に記録されている人の立体顔データから現在設定されている向きから見た平面画像データを生成し、設定されている顔検出モードが猫用である場合は、図2に記録されている猫の立体顔データから現在設定されている向きからみた平面画像データを生成することになる。
次いで、ステップS63で、CPU10の顔認識部102は、該生成した顔の平面画像データから顔特徴データを算出する。これにより、現在設定されている向きから見た、該設定されている顔検出モードの種類の顔特徴データが算出される。
次いで、ステップS64で、CPU10の顔認識部102は、直近にスルー画像表示用に撮像されたフレーム画像データから被写体の特徴データを算出する。
このとき、図5のステップS36での3次元の顔検出処理の場合は、撮像されたフレーム画像データの全領域に基づいて被写体の特徴データ(全被写体の特徴データ)を算出する。
また、図5のステップS35での3次元の顔検出処理の場合は、撮像されたフレーム画像データのうち、顔らしきものがあると判断された領域の画像データに基づいて被写体の特徴データ(顔らしき被写体の特徴データ)を算出する。
次いで、ステップS65で、CPU10の顔認識部102は、ステップS63で算出された顔特徴データと、ステップS64で算出された被写体の特徴データとを比較照合する。この比較照合は、生成した被写体の特徴データの中に顔特徴データと一致する部分かあるか否かを判断するためのものである。したがって、この比較照合は、生成された被写体の特徴データの各部と顔特徴データとを比較照合していく(サーチしていく)ことにより、各部との一致度を得る。
ステップS66で、CPU10の顔認識部102は、ステップS64で算出された被写体の特徴データの中に、ステップS63で算出した顔特徴データと所定値以上で一致する部分があるか否かを判断する。つまり、所定の範囲内で顔特徴データと一致する部分があるか否かを判断することになる。この一致する部分とは、被写体の特徴データの中の1部であってもよいし、被写体の特徴データ全部であってもよい。要は、顔特徴データと所定値以上で一致するものがあるかを判断できればよい。
ステップS66で、所定値以上で一致する部分があると判断した場合は、ステップS67に進み、CPU10の顔認識部102は、該所定値以上で一致する部分を顔と判断し、該部分に対応する、被写体の特徴データの生成元となったフレーム画像データ上の領域を顔領域とする。つまり、フレーム画像データ上の顔領域を検出する。
一方、ステップS66で、所定値以上で一致する部分がないと判断すると、ステップS68に進み、CPU10の顔認識部102は、現在設定されている向きが最後の向きであるか否かを判断する。つまり、予め決められた全ての向きが設定されたか否かを判断する。
ステップS68で、設定されている向きが最後の向きでないと判断すると、ステップS69に進み、CPU10の顔認識部102は、次の向きに設定してステップS62に戻る。この「次の向き」とは、たとえば、現在設定されている向きから5度、右方向又は左方向に回転させた向きである。ここで、左、右とは、頭の天辺を上とし、顎や喉を下としたときを基準とする。なお、ここでは左右の方向に向きを回転させたが上下方向にも回転させるようにしてもよいし、左右方向と上下方向ともに回転させるようにしてもよい。
一方、ステップS68で、設定されている向きが最後の向きであると判断すると、ステップS70に進み、顔認識部102は、撮像されたフレーム画像データ内に顔がないと判断する。
このステップS67で顔領域を検出すると、図5のステップS38で顔を検出することができたと判断し、図3のステップS12、図4のステップS21で顔を検出できたと判断する。また、ステップS70で顔がないと判断すると、図5のステップS39で顔を検出することができないと判断し、図3のステップS12、図4のステップS21で顔を検出できないと判断する。
このように、2つ目の3次元の顔検出処理は、被写体を撮像した1枚のフレーム画像データから算出された被写体の特徴データと、予め記録されている立体顔データから異なる向きから見た被写体の顔の平面画像データを生成していき、該生成された平面画像データから算出された被写体の特徴データと、を比較照合することにより顔を検出するので、顔検出の精度を向上させることができる。
例えば、被写体が犬や猫等の動物であったり、被写体が横を向いている場合であっても検出することができる。
また、1つ目の3次元の顔検出処理のように、撮像された複数のフレーム画像データから被写体の3次元モデルを生成する必要は無いので処理負担を軽減させることができる。
なお、最初は、顔の向きを正面に設定し(ステップS61)、その後、顔が検出されるまで顔の向きを変えて設定するようにしたが(ステップS69)、最初に設定する顔の向きは正面でなくてもよい。要は、顔が検出されるまで異なる向きに設定していくものであればよい。
以上のように第1の実施の形態においては、ユーザによって設定された顔検出モードの種類に応じて、異なる顔検出処理を行うようにしたので、被写体の種類や撮影状況に適した顔検出処理を行うことができ、顔認識の精度を向上させることができる。
さらに、第1の実施の形態においては、ユーザによって設定された顔検出モードの種類に応じて、2次元の顔検出処理を行ったり、3次元の顔検出処理を行うようにしたので、処理負担の大きい3次元の顔検出処理を不必要に行うことがなく、また顔検出の精度を向上させることができる。たとえば、人の顔は平面的なので2次元の顔検出処理を行い、犬等の動物は一般的に立体的な顔なので2次元の顔検出処理では顔を検出することは難しいが、3次元の顔検出を行うことにより、動物の顔も検出することができる。
また、2次元の顔検出処理により人の顔が検出されない場合は、3次元の顔検出処理を行うようにしたので、たとえば、人が横を向いていたり、マスクやサングラス等を装着している場合であっても人の顔を検出することができる。
また、ユーザが顔検出モードを設定するので、検出したい種類の被写体の顔のみを検出することができる。
また、被写体追従モードがOnの場合は、設定された顔検出モードの種類に応じて、2次元の顔検出処理や3次元の顔検出処理を行い、該顔が検出されると、2次元的な顔検出処理により該検出された顔を検出していき、追従している顔を見失うと再び、設定された顔検出モードの種類に応じて、2次元の顔検出処理や3次元の顔検出処理を行うので、追従処理の負担を軽減することができると共に、追従処理の精度を向上させることができる。
[第2の実施の形態]
次に第2の実施の形態について説明する。
第1の実施の形態においては、ユーザによって選択された顔検出モードの種類に設定するようにしたが、第2の実施の形態においては、自動的に顔検出モードの種類を設定するというものである。
E.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
以下、第2の実施の形態のデジタルカメラ1の動作を図9及び図10のフローチャートにしたがって説明する。
ユーザのモード切替キーの操作により、顔検出静止画撮影モードに設定されると、ステップS101で、CPU10の顔検出モード設定部101は、人用の顔検出モードに設定する。
次いで、ステップS102で、CPU10は、CCD5による撮像を開始して、スルー画像表示を開始させる。
次いで、ステップS103で、CPU10は、被写体追従On/Offキーの操作が行なわれたか否かを判断する。
ステップS103で、被写体追従キーの操作が行われたと判断すると、ステップS104に進み、CPU10は、現在の被写体追従モードがOnであるか否かを判断する。
ステップS104で、現在の被写体追従モードがOnでない、つまり、Offであると判断すると、ステップS105に進み、CPU10は、被写体追従モードをOffからOnに切り替えて、ステップS107に進む。
一方、ステップS104で、現在の被写体追従モードがOnであると判断すると、ステップS106に進み、CPU10は、被写体追従モードをOnからOffに切り替えて、ステップS107に進む。
また、ステップS103で、被写体追従On/Offキーの操作が行なわれていないと判断すると、そのままステップS107に進む。
ステップS107に進むと、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する。
ステップS107で、シャッタボタンが半押しされていないと判断するとステップS103に戻る。
一方、ステップS107で、シャッタボタンが半押しされたと判断すると、ステップS108に進み、CPU10の顔認識部102は、現在設定されている顔検出モードの種類に応じた顔検出処理を行う。
このステップS108の動作は、上記第1の実施の形態で説明した、図3のステップS10の動作、つまり、図5に示す動作と同様の動作を行なう。この顔検出処理により設定された顔検出モードの種類の顔が検出されることになる。ここで、ステップS101で人用の顔検出モードが設定されているので、顔検出処理により人の顔が検出されることになる。
顔検出処理を行うと、ステップS109に進み、CPU10は、ステップS108の顔検出処理より顔を検出することができたか否かを判断する。
ステップS109で、顔を検出することができなかったと判断すると、ステップS110に進み、CPU10は、顔検出モード設定部101により未だ設定されていない顔検出モードがあるか否かを判断する。
ステップS110で、設定されていない顔検出モードがあると判断すると、ステップS111に進み、CPU10の顔検出モード設定部101は、未だ設定されていない種類の顔検出モードに設定して、ステップS108に戻る。
ここでは、まだ人用の顔検出モードしか設定されていないので、動物用の顔検出モード(犬用の顔検出モード、猫用の顔検出モード等のうち何れかの動物用の顔検出モード)が設定されることになる。
一方、ステップS109で、顔を検出することができたと判断すると、ステップS112に進み、CPU10は、現在の被写体追従モードがOnであるか否かを判断する。
ステップS112で、被写体追従モードがOnでない、つまり、Offであると判断すると、ステップS113に進み、CPU10は、該検出した顔に対してコントラスト検出方式によるAF処理を行って、ステップS115に進む。
一方、ステップS110で、設定されていない顔検出モードがないと判断すると、ステップS114に進み、CPU10は、所定の領域に対してコントラスト検出方式によるAF処理を行って、ステップS115に進む。
ステップS115に進むと、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS115で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS115に留まり、シャッタボタンが全押しされたと判断すると、ステップS116に進み、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録する処理を行う。
また、ステップS112で、被写体追従モードがOnであると判断すると、図10のステップS121に進み、CPU10の顔認識部102は、該検出された顔を2次元的に検出していくことにより、該検出された顔に対して追従していく追従処理を開始する。こで、2次元的に顔を検出するとは、2次元のデータのみを用いて顔検出することを指し、このステップS121での、2次元的に顔を検出する処理は、ブロックマッチング法などを用いて該検出された顔を検出していく。
次いで、ステップS122で、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS122で、シャッタボタンが全押しされていないと判断すると、ステップS123に進み、CPU10は、該追従している顔を見失ったか否かを判断する。つまり、ステップS121の2次元的に顔を検出する処理により顔を検出することができなくなったか否かを判断する。
ステップS123で、顔を見失っていないと判断するとステップS122に戻り、ステップS123で、顔を見失ったと判断すると、図9のステップS108に戻る。これにより、顔を見失った場合は再び現在設定されている顔検出モードの種類に応じた顔検出処理を行うことになる。
一方、ステップS122で、シャッタボタンが全押しされたと判断すると、ステップS124に進み、CPU10は、該追従している顔に対してコントラスト検出方式によるAF処理を行う。つまり、シャッタボタンが全押しされた直前に2次元的に検出された顔に対してAF処理を行う。
次いで、ステップS125で、CPU10は、静止画撮影処理を行い、該撮影処理により得られた静止画像データを圧縮してフラッシュメモリ14に記録する処理を行う。
以上のように、第2の実施の形態においては、自動的に顔検出モードを設定するので、ユーザの手間が省ける。また、撮影したい被写体の種類が具体的にわからない場合(例えば、猫なのか狐なのかわからない場合)であっても、該被写体の顔を検出することができ、顔検出の精度を向上させることができる。
また、設定された顔検出モードの種類に応じて、2次元の顔検出処理を行ったり、3次元の顔検出処理を行うようにしたので、処理負担の大きい3次元の顔検出処理を不必要に行うことがなく、また顔検出の精度を向上させることができる。たとえば、人の顔は平面的なので2次元の顔検出処理を行い、犬等の動物は一般的に立体的な顔なので2次元の顔検出処理では顔を検出することは難しいが、3次元の顔検出を行うことにより、動物の顔も検出することができる。
また、2次元の顔検出処理により人の顔が検出されない場合は、3次元の顔検出処理を行うようにしたので、たとえば、人が横を向いていたり、マスクやサングラス等を装着している場合であっても人の顔を検出することができる。
また、被写体追従モードがOnの場合は、設定された検出モードの種類に応じて、2次元の顔検出処理や3次元の顔検出処理を行い、該顔が検出されると、2次元的な顔検出処理により該検出された顔を検出していき、追従している顔を見失うと再び、設定された検出モードの種類に応じて、2次元の顔検出処理や3次元の顔検出処理を行うので、追従処理の負担を軽減することができると共に、追従処理の精度を向上させることができる。
なお、顔検出静止画撮影モードに設定すると、最初に人用の顔検出モードを設定するようにしたが(ステップS101)、他の種類(動物の種類)の顔検出モードに設定するようにしてもよい。
また、最初はユーザが任意の種類の顔検出モードを設定し、該設定した顔検出モードの種類の顔が検出されない場合に、自動的に設定されていない種類の顔検出モードに設定するようにしてもよい。
[第3の実施の形態]
次に第3の実施の形態について説明する。
上記第1、2の実施の形態においては、単に顔を検出するというものであったが、第3の実施の形態においては、顔検出を、撮影された顔が誰であるか?何であるか具体的に識別する顔識別の場合に適用するというものである。
顔検出処理では、たとえば、人の顔であっても具体的に誰の顔であるかを識別することはできず、また、動物、たとえば、猫の顔であっても、ペルシャ猫、三毛猫等、猫の種類は様々であり、また、同じ種類の猫であっても猫毎に微妙に顔が異なる場合もある。したがって、顔検出では、自分の友達や子供のみ、自分が飼っているペットのみを検出して欲しいのに(たとえば、フォーカス対象としたいのに)、他の人や動物の顔まで検出されてしまうからである。
この顔識別は、予め記録されている人物の顔、動物の顔が撮像されたフレーム画像データの中にあるかを識別することになる。
この人物や動物の顔は、登録モード等においてユーザが任意の人物、任意の種類の動物の顔を登録することができる。立体顔データ(3次元の顔データ)を登録する場合は、登録したい顔を異なる角度から複数撮影し、該撮影された複数のフレーム画像データから3次元モデルを生成して登録する。また、2次元の顔データを登録する場合は、登録したい顔を撮影し、該撮影されたフレーム画像データから該顔の特徴データ(顔特徴データ)を算出して登録する。
ここで、登録される立体顔データや2次元の顔データは、人や犬、猫等の種類の顔であることが大まかに識別できる程度の情報量ではなく、誰であるか等具体的に識別できる程度の情報量が必要である。この登録により、被写体の種類毎に図2に示すような顔識別用の顔データテーブルが作成される。ここでも、図2と同様に、人の顔データは2次元と3次元の両方が登録されており、動物の顔データは3次元のみが登録されているものとする。なお、顔識別用の顔データテーブルには、被写体の種類毎に複数の顔データが登録可能である。たとえば、複数人の2次元の顔データ、立体顔データを記録することができるし、複数匹の猫の立体顔データを記録することも可能である。
この顔検出処理の動作を顔識別処理に適用した場合の動作は、上記各実施の形態で説明した動作とほぼ同じであるが異なる点だけを説明する。
まず、ここでは、顔検出モードに代えて顔識別モードを備え、この顔識別モードも顔検出モードと同様に、被写体の種類毎にある。たとえば、人用の顔識別モード、犬用の顔識別モード、猫用の顔識別モードといった具合である。
F.顔識別静止画撮影モードの動作について
F−1.図3及び図4に示す顔検出静止画撮影モードの動作を、顔識別静止画撮影モードに適用したときの動作について
このときの顔識別静止画撮影モードの動作を、図3及び図4を引用し、異なる部分だけを説明する。
まず、図3のステップS1は複数種類の顔識別モードを一覧表示させ、ステップS2で、顔識別モードが選択されたと判断すると、ステップS3で、該選択された顔識別モードに設定する。また、ステップS10は、設定されている顔識別モードに応じた顔識別処理を行い、ステップS12は、顔が識別できたか否かを判断し、顔が識別できたと判断すると、ステップS13で、該識別した顔に対してAF処理を行い、顔が識別できていないと判断すると、ステップS14で所定の領域に対してAF処理を行う。この設定されている顔識別モードに応じた顔識別処理は後で説明する。
なお、顔識別処理により顔も検出することできるようにする場合は、ステップS12で、顔が識別できないと判断した場合であって、顔が検出されたと判断した場合は、該検出された顔に対してAF処理を行い、顔も検出できていないと判断された場合は、ステップS14に進み、所定の領域に対してAF処理を行うようにしてもよい。この顔識別処理による顔検出は後で説明する。
また、ステップS21は、顔が識別できたか否かを判断し、顔が識別できない場合はステップS23に進み、顔が識別できた場合は、ステップS22に進み、該識別された顔に対して追従処理を開始して、ステップS23に進む。この追従処理は上記第1の実施の形態で説明したように、該識別された顔を2次元的に検出していくことにより、該検出された顔に対して追従していく。
F−2.図9及び図10に示す顔検出静止画撮影モードの動作を、顔識別静止画撮影モードに適用したときの動作について
このときの顔識別静止画撮影モードの動作を、図9及び図10を引用し、異なる部分だけを説明する。
図9のステップS101は、人用の顔識別モードに設定する。また、ステップS108は、設定されている顔識別モードに応じた顔識別処理を行い、ステップS109は、顔が識別できたか否かを判断する。ステップS109で、顔が識別できていないと判断すると、ステップS110で、設定されていない顔識別モードがあるか否かを判断する。ステップS110で、設定されていない顔識別モードがあると判断すると、ステップS111で、設定されていない種類の顔識別モードに設定してステップS108に戻る。また、ステップS109で、顔が識別できたと判断し、ステップS112で被写体追従モードがOnでないと判断すると、ステップS113で、該顔識別した顔に対してAF処理を行い、一方、ステップS110で、設定されていない顔識別モードがないと判断すると、ステップS114で所定の領域に対してAF処理を行う。この設定されている顔識別モードに応じた顔識別処理は後で説明する。
なお、顔識別処理により顔も検出することできるようにする場合は、ステップS110で、設定されていない顔識別モードがないと判断した場合は、顔が検出されたか否かを判断し、顔が検出された場合は該検出された顔に対してAF処理を行い、顔も検出できていないと判断された場合は、ステップS114に進み、所定の領域に対してAF処理を行うようにしてもよい。この顔識別処理による顔検出は後で説明する。
また、ステップS112で被写体追従がOnであると判断して、図10のステップS121に進むと、該識別された顔に対して追従処理を開始する。この追従処理は上記第1の実施の形態で説明したように、該識別された顔を2次元的に検出していくことにより、該検出された顔に対して追従していく。
G.設定されている顔識別モードに応じた顔識別処理の動作について
G−1.図5に示す設定されている顔検出モードに応じた顔検出処理の動作を、設定されている顔識別モードに応じた顔識別処理に適用したときの動作について
このときの顔識別処理の動作を、図5を引用し、異なる部分だけを説明する。
まず、図5のステップS31は、人用の顔識別モードが設定されているか否かを判断し、人用の顔識別モードが設定されていると判断すると、ステップS32に進み、2次元の顔識別処理により人の顔を検出する。この2次元の顔識別処理は、撮像されたフレーム画像データから2次元の全被写体の特徴データを算出し、該算出した被写体の特徴データと、顔識別用の顔データテーブルに登録されている人の2次元の顔データとを比較照合することにより、撮像されたフレーム画像データ内に登録されている人物の顔があるか顔識別する。
そして、ステップS33で、2次元の顔識別処理により登録されている人物の顔が識別されたか否かを判断する。ステップS33で顔を識別することができたと判断すると、ステップS38に進み、顔が識別できたと判断する。一方、ステップS33で顔が識別できないと判断した場合、ステップS31で人用の顔識別モードが設定されていないと判断した場合は、ステップS36に進み、全領域に基づいて3次元の顔識別処理により現在設定されている顔識別モードの種類の顔を顔識別する処理を行って、ステップS37に進む。
そして、ステップS37では3次元の顔識別処理により登録された顔があるか、つまり、3次元の顔識別により顔識別できたか否かを判断する。ステップS37で登録された顔があると判断するとステップS38で顔識別することができたと判断し、ステップS37で登録された顔がないと判断するとステップS39で顔識別することができないと判断する。
このステップS38で顔識別できたと判断すると、図3のステップS12、図4のステップS21、図9のステップS109で顔識別できたと判断し、ステップS39で顔識別することができないと判断するとステップS12、ステップS21、ステップS109で顔識別することができないと判断する。
このときは、図5のステップS34、ステップS35は不要ということになる。
G−2.他の方法による設定されている顔識別モードに応じた顔識別処理の動作について
このときの顔識別処理の動作を、図11のフローチャートにしたがって説明する。なお、この場合は、顔識別用の顔データテーブルの他に、顔検出用の人の2次元の顔データがメモリ12に記録されている。
図3のステップS10、図9のステップS108に進むと、図11のステップS151に進み、CPU10の顔認識部102は、現在人用の顔識別モードが設定されている否かを判断する。
ステップS151で、人用の顔識別モードが設定されている判断すると、ステップS152に進み、CPU10の顔認識部102は、撮像されたフレーム画像データの全領域に基づいて2次元の顔検出処理により人の顔を検出する。
ここでの、2次元の顔検出処理は、撮像されたフレーム画像データから被写体の2次元の特徴データ(全被写体の2次元の特徴データ)を算出し、該算出した被写体の特徴データと、メモリ12に記録されている顔検出用の人の2次元の顔データとを比較照合することにより、画像内にある人の顔を検出する。ここで、記録されている顔検出用の顔特徴データは、人の顔であることが検出できれば十分なので、具体的に誰の顔であるかを識別できる程度の情報量は必要ない。また、算出される全被写体の特徴データも同様に、人の顔を検出するのに必要な情報量でよい。
ステップS153で、CPU10の顔認識部102は、画像内に人の顔があるか否かを判断する。つまり、2次元の顔検出処理により人の顔を検出することができたか否かを判断する。即ち、算出した全被写体の特徴データの中に、顔データと所定値以上で(所定の範囲内で)一致する部分があるか否かを判断する。
ステップS153で、人の顔があると判断すると、ステップS154に進み、CPU10の顔認識部102は、該検出された顔領域に基づいて2次元の顔識別処理を行う。つまり、撮像されたフレーム画像データのうち、該検出された顔領域の画像データから被写体の2次元の特徴データ(顔特徴データ)を算出し、該算出した顔特徴データと、顔識別用の顔データテーブルに登録されている人の2次元の顔データとを比較照合することにより、該登録されている人物であるかを顔識別する。なお、この登録されている人物の顔データは、人の顔であることが大まかに識別できる程度の情報量ではなく、具体的に誰の顔であるかを識別できる程度の情報量であることはもちろんのこと、算出される被写体の特徴データ(顔特徴データ)も誰の顔であるか具体的に識別できる程度の情報量である。
この検出された顔領域に基いて2次元の顔識別処理を行うので、処理負担を軽減させることができるとともに、顔識別の精度を向上させることができる。
次いで、ステップS155で、CPU10の顔認識部102は、登録された顔があるか否かを判断する。つまり、2次元の顔識別処理により登録されている人物の顔が識別できたか否かを判断する。
ステップS155で、登録された顔があると判断すると、ステップS161に進み、CPU10の顔認識部102は、顔を識別することができたと判断する。
一方、ステップS155で、登録された顔がないと判断すると、ステップS156に進み、顔認識部102は、該検出された顔領域に基づいて、3次元の顔識別処理により人の顔を識別する処理を行って、ステップS160に進む。この3次元の顔識別処理は後で説明する。
この検出された顔領域に基いて3次元の顔識別処理を行うので、処理負担を軽減させることができるとともに、顔識別の精度を向上させることができる。
一方、ステップS153で、人の顔がないと判断すると、ステップS157に進み、顔らしきものがあるか否かを判断する。この顔らしきものとは、上記第1の実施の形態で説明したように、ステップS152の2次元の顔検出処理による全被写体の特徴データと、人の2次元の顔データとの比較照合により、口と鼻はあるが片目、若しくは両目が検出されなかったり(人が横を向いている場合、サングラスをしている場合)、目があるが鼻と口が検出されなかったり場合(マスクをしている場合)のことである。つまり、顔データに基づく顔のパーツが一部検出されなかった場合のことである。
ステップS157で、顔らしきものがあると判断すると、ステップS158に進み、CPU10の顔認識部102は、該検出された顔らしきものがある領域に基づいて3次元の顔識別処理により人の顔を識別する処理を行って、ステップS160に進む。顔らしき領域に基いて3次元の顔識別処理を行うので処理負担を軽減することができ、顔識別の精度を向上させることができる。この3次元の顔識別処理については後で説明する。
一方、ステップS157で、顔らしきものがないと判断した場合、ステップS151で人用の顔識別モードが設定されていないと判断した場合は、ステップS159に進み、フレーム画像データの全領域に基づいて3次元の顔識別処理により現在設定されている顔識別モードの種類の顔を識別する処理を行って、ステップS160に進む。この3次元の顔識別処理については後で説明する。
ステップS160に進むと、CPU10の顔認識部102は、登録された顔があるか否かを判断する。つまり、3次元の顔識別処理により登録されている人物の顔が識別できたか否かを判断する。
ステップS160で、登録された顔があると判断すると、ステップS161で、顔を識別することができたと判断し、ステップS160で、登録された顔がないと判断すると、ステップS162で、顔を識別することができないと判断する。
このステップS161で顔識別できたと判断すると図3のステップS12、図4のステップS21、図9のステップS109で顔識別できたと判断し、ステップS162で顔識別することができないと判断するとステップS12、ステップS21、ステップS109で顔識別することができないと判断する。
なお、図11では、人用の顔識別モードが設定されている場合は、2次元の顔検出処理と2次元の顔識別処理との両方を行うようにしたが、顔識別処理により人の顔を検出することができるようにする場合は、2次元の顔検出処理を行わずに、2次元の顔識別処理のみを行うようにしてもよい。この場合は、ステップS151で人用の顔識別モードが設定されていると判断すると、ステップS154に進み、全領域に基づいて2次元の顔識別処理を行って、ステップS155に進む。ステップS155で、登録された顔がないと判断すると、顔を検出することができたか否かを判断する。2次元の顔識別処理により顔を検出することができたと判断すると、ステップS156に進み、顔を検出することができないと判断すると、ステップS157に進む。この場合は、ステップS152、ステップS153の動作は不要ということになる。
また、この2次元の顔識別処理による顔検出は、登録されている顔がフレーム画像データ内にあると識別された場合は、当然に顔も検出されていることになり、また、たとえ登録されている顔がフレーム画像データ内にないと判断された場合であっても、全被写体の2次元の特徴データと登録されている人の2次元の顔データとの比較照合の結果により、登録されている人物の顔ではないが人の顔であることを検出することは可能であるからである。例えば、人の2次元の顔データと第1の所定値以上で一致する部分がある場合は、該顔データに対応する人物の顔であると識別し、第1の所定値以上で一致しないが、第2の所定値(第1の所定値より小さい値)以上で一致する場合は人の顔であると検出する。
なお、3次元の顔識別処理による顔検出は後で説明する。
H.3次元の顔識別処理の動作について
H−1.図6に示す3次元の顔検出処理の動作を、3次元の顔識別処理に適用したときの動作について
このときの3次元の顔識別処理の動作を、図6を引用し、異なる部分だけを説明する。
まず、ステップS53では、撮像された複数枚のフレーム画像データから被写体の特徴データをそれぞれ算出する。このときに算出される被写体の特徴データは、人や犬、猫等の種類の顔であることが大まかに識別できる程度の情報量ではなく、誰であるか等具体的に識別できる程度の情報量を有している。
このとき、図5を顔識別処理に適用したときの図5のステップS36、図11のステップS159での3次元の顔識別処理の場合は、撮像されたフレーム画像データの全領域に基づいて被写体の2次元の特徴データ(全被写体の特徴データ)を算出する。
また、図11のステップS156の3次元の顔識別処理の場合は、撮像された各フレーム画像データの検出された顔領域の画像データから被写体の2次元の特徴データ(2次元の顔特徴データ)を算出する。ここで顔特徴データとは、検出された顔領域内で撮像されている全ての被写体の特徴データに基づいて数値化されたデータである。
また、図11のステップS158の3次元の顔識別処理の場合は、撮像された各フレーム画像データの顔らしきものがあると判断された領域の画像データから被写体の2次元の特徴データ(顔らしき被写体の2次元の特徴データ)を算出する。
そして、ステップS55では、ステップS54で各フレーム画像データの被写体特徴データから生成された被写体の3次元モデルと、顔識別用の顔データテーブルに登録されている、現在設定されている顔識別モードの種類の立体顔データとを比較照合する。
そして、ステップS56で、所定値以上で一致する部分があるか否かを判断し、所定値以上で一致する部分がある場合は、ステップS57で、該所定値以上で一致する部分に登録された顔があると判断し、顔領域を検出する。一方、ステップS56で、所定値以上で一致する部分がないと判断すると、ステップS58に進み、登録されている顔がないと判断する。
このステップS57で顔領域を検出すると、図5のステップS38、図11のステップS161で顔を識別することができたと判断し、図3のステップS12、図4のステップS21、図9のステップS109で顔が識別できたと判断する。また、ステップS58で顔がないと判断すると、図5のステップS39、図11のステップS162で顔を識別することができないと判断し、図3のステップS12、図4のステップS21、図9のステップS109で顔が識別できないと判断する。
なお、この3次元の顔識別処理においても顔を検出することできるようにすることは可能である。この3次元の顔識別処理は、登録されている顔がフレーム画像データ内にあると識別された場合は、当然に顔も検出されていることになり、また、たとえ登録されている顔がフレーム画像データ内にないと判断された場合であっても、被写体の3次元モデルと登録されている立体顔データとの比較照合の結果により、登録されている人物の顔ではないが人の顔であることを検出することは可能であるからである。例えば、立体顔データと第1の所定値以上で一致する部分がある場合は、該立体顔データに対応する顔であると識別し、第1の所定値以上で一致しないが、第2の所定値(第1の所定値より小さい値)以上で一致する場合は単に顔であると検出する。
H−2.図8に示す3次元の顔検出処理の動作を、3次元の顔識別処理に適用したときの動作について
このときの3次元の顔識別処理の動作を、図8を引用し、異なる部分だけを説明する。
ステップS62では、顔識別用の顔データテーブルに設定されている被写体の種類毎の立体顔データのうち、現在設定されている顔識別モードの種類の立体顔データに基づいて、現在設定されている向きから見た顔の平面画像データを生成する。そして、ステップS63では、該生成した顔の平面画像データから2次元の顔特徴データを算出する。このとき、算出される顔特徴データは、人や犬、猫等の種類の顔であることが大まかに識別できる程度の情報量ではなく、誰であるか等具体的に識別できる程度の情報量を有している。
そして、ステップS64では、直近に撮像されたフレーム画像データに基づいて被写体の2次元の特徴データを算出する。このとき、算出される被写体の特徴データは、人や犬、猫等の種類の顔であることが大まかに識別できる程度の情報量ではなく、誰であるか等具体的に識別できる程度の情報量を有している。
また、ここで、図5を顔識別処理に適用したときの図5のステップS36、図11のステップS159での3次元の顔識別処理の場合は、撮像されたフレーム画像データの全領域に基づいて被写体の2次元の特徴データ(全被写体の特徴データ)を算出する。
また、図11のステップS156の3次元の顔識別処理の場合は、撮像された各フレーム画像データの検出された顔領域の画像データから2次元の被写体の特徴データ(2次元の顔特徴データ)を算出する。
また、図11のステップS158の3次元の顔識別処理の場合は、撮像された各フレーム画像データの顔らしきものがあると判断された領域の画像データから2次元の被写体の特徴データ(2次元の顔らしき被写体の特徴データ)を算出する。
そして、ステップS66で、所定値以上で一致する部分があると判断された場合は、ステップS67で、該所定値以上で一致する部分に登録された顔があると判断し、顔領域を検出する。また、ステップS68で、設定されている向きが最後の向きと判断された場合は、ステップS70に進み、登録されている顔がないと判断する。
このステップS67で顔領域を検出すると、図5のステップS38、図11のステップS161で顔を識別することができたと判断し、図3のステップS12、図4のステップS21、図9のステップS109で顔が識別できたと判断する。また、ステップS70で顔がないと判断すると、図5のステップS39、図11のステップS162で顔を識別することができないと判断し、図3のステップS12、図4のステップS21、図9のステップS109で顔が識別できないと判断する。
なお、この3次元の顔識別処理においても顔を検出することできるようにすることは可能である。この3次元の顔識別処理は、登録されている顔がフレーム画像データ内にあると識別された場合は、当然に顔も検出されていることになり、また、たとえ登録されている顔がフレーム画像データ内にないと判断された場合であっても、ステップS64で算出された2次元の被写体の特徴データと、ステップS63で算出された顔特徴データとの比較照合の結果により、登録されている人物の顔ではないが人の顔であることを検出することは可能であるからである。例えば、ステップS63で算出された顔特徴データと第1の所定値以上で一致する部分がある場合は、該顔特徴データの生成元となった立体顔データに対応する顔であると識別し、第1の所定値以上で一致しないが、第2の所定値(第1の所定値より小さい値)以上で一致する場合は単に顔であると検出する。
H−3.他の方法による3次元の顔識別処理の動作について
まず、1つ目の他の方法による3次元の顔識別処理の動作は、上記「H−2」で説明した動作とほぼ同様であるが、上記「H−2」では、立体顔データから異なる向きの平面画像データを生成するようにしたが、ここでは、立体顔データから異なる表情(笑い、怒り、嫌悪等の異なる表情)の平面画像データを生成するというものである。このときは、立体顔データを正面から見たときの平面画像データを生成する。
このときの動作を、図8を引用して説明する。
まず、ステップS61では、顔の表情を無表情に設定し、ステップS62では、現在設定されている顔識別モードの種類の立体顔データの顔の表情を認識し、該立体顔データから該設定された表情の立体顔データを生成する。そして、該生成した立体顔データに基づいて正面から見た顔の平面画像データを生成する。
そして、ステップS66で、所定値以上で一致する部分があると判断すると、ステップS67で、該所定値以上で一致する部分に登録されている顔があると判断し、顔領域を検出する。一方、ステップS66で、所定値以上で一致する部分がないと、ステップS68で、設定されている表情が最後の表情か否かを判断する。つまり、予め決められているすべての表情を設定したか否かを判断する。ステップS68で、設定されている表情が最後の表情でないと判断すると、ステップS69で次の表情に設定してステップS62に戻る。一方、ステップS68で設定されている表情が最後の表情であると判断すると、ステップS70に進み、登録されている顔がないと判断する。
これにより、顔識別の精度を向上させることができる。例えば、被写体が笑っていたり、怒っている場合等であっても、顔を識別することができる。
なお、立体顔データから異なる向きの平面画像データの生成に代えて、異なる表情の平面画像データを生成するようにしたが、各表情毎に異なる向きの平面画像データを生成するようにしてもよい。つまり、向きと表情とを変えて平面画像データを生成する。
また、3次元の顔識別処理について説明したが、3次元の顔検出処理にも適用することも可能である。また、この3次元の顔識別処理により顔を検出することができるようにすることも可能である。
次に、2つ目の他の方法による3次元の顔識別処理の動作は、上記「H−1」と「H−2」で説明した動作を組み合わせたものであり、上記「H−2」では、登録されている立体顔データから異なる向きから見た平面画像データを生成するようにしたが、撮像された複数のフレーム画像データから被写体の3次元モデルを生成し、該生成した被写体の3次元モデルから異なる向きから見た平面画像データを生成するというものである。このときは、顔識別用の顔データテーブルには、被写体の種類にかかわらず2次元の顔データのみが登録されている。
このときの動作を、図6及び図8を引用して説明する。
まず、図6のステップS51、ステップS52の動作後、撮像された撮影角度の異なる複数毎のフレーム画像データ毎に被写体の特徴データを算出し(ステップS53)、該算出された各フレーム画像データ毎の被写体の特徴データから被写体の3次元モデルを生成する(ステップS54)。
そして、図8のステップS61に進み、顔の向きを正面と設定し、ステップS62では、該生成された被写体の3次元モデルに基づいて、該設定された向きから見た被写体の平面画像データを生成する。次いで、ステップS63で、該生成した平面画像データから被写体の特徴データを算出して、ステップS65に進み、該算出した被写体の特徴データ(設定されている向きから見た被写体の特徴データ)と、顔識別用の顔データテーブルに登録されている現在設定されている顔識別モードの種類の2次元の顔データとを比較照合する。
そして、ステップS66で、所定値以上で一致する部分があると判断すると、ステップS67進み、該所定値以上で一致する部分に登録されている顔があると判断し、顔領域を検出する。一方、ステップS66で、所定値以上で一致する部分がないと判断すると、ステップS68で、設定されている向きが最後の向きであるか否かを判断する。ステップS68で、設定されている向きが最後の向きでないと判断すると、ステップS69で次の向きに設定してステップS62に戻る。一方、ステップS68で設定されている向きが最後の向きであると判断すると、ステップS70に進み、登録されている顔がないと判断する。
これにより、顔識別の精度を向上させることができる。例えば、人物が横を向いている場合やサングラスをしている場合であっても、該人物が登録されている顔であるかを識別することでできる。また、立体顔データではなく、2次元の顔データを登録しておけばよいので、記録容量を少なくすることができる。
なお、3次元の顔識別処理について説明したが、3次元の顔検出処理にも適用することも可能である。また、この3次元の顔識別処理により顔を検出することができるようにすることも可能である。
また、図11のステップS156による3次元の顔識別処理では、顔領域の画像データに基づいて被写体の3次元モデルを生成するので、顔の3次元モデルが生成されるということになる。このように顔の3次元モデルが生成される場合は、生成された顔の3次元モデルの表情を認識して、上述したように顔の3次元モデルの表情を変えるようにしてもよい。また、この動作は、3次元の顔識別処理について説明したが、3次元の顔検出処理にも適用することも可能である。また、この3次元の顔識別処理により顔を検出することができるようにすることも可能である。
以上のように第3の実施の形態においては、設定された顔識別モードの種類に応じて、異なる顔識別処理を行うようにしたので、被写体の種類や撮影状況に適した顔識別処理を行うことができ、顔識別の精度を向上させることができる。
さらに、第3の実施の形態においては、設定された顔識別モードの種類に応じて、2次元の顔識別処理を行ったり、3次元の顔識別処理を行うようにしたので、処理負担の大きい3次元の顔識別処理を不必要に行うことがなく、また顔識別の精度を向上させることができる。たとえば、人の顔は平面的なので2次元の顔識別処理を行い、犬等の動物は一般的に立体的な顔なので2次元の顔識別処理では顔を識別することは難しいが、3次元の顔識別を行うことにより、動物の顔も識別することができる。
また、2次元の顔識別処理により人の顔が識別されない場合は、3次元の顔識別処理を行うようにしたので、たとえば、人が横を向いていたり、マスクやサングラス等を装着している場合であっても人の顔を識別することができる。
また、ユーザが顔識別モードを設定する場合は、識別したい種類の被写体の顔のみを識別することができる。
自動的に顔識別モードを設定する場合は、ユーザの手間が省け、また、撮影したい被写体の種類が具体的にわからない場合(例えば、猫なのか狐なのかわからない場合)であっても、該被写体の顔を識別することができ、顔識別の精度を向上させることができる。
また、被写体追従モードがOnの場合は、設定された顔識別モードの種類に応じて、2次元の顔識別処理や3次元の顔識別処理を行い、該顔が識別されると、2次元的な顔検出処理により該検出された顔を検出していき、追従している顔を見失うと再び、設定された顔識別モードの種類に応じて、2次元の顔識別処理や3次元の顔識別処理を行うので、追従処理の負担を軽減することができると共に、追従処理の精度を向上させることができる。
[変形例]
I.上記実施の形態は以下のような変形例も可能である。
(01)上記各実施の形態において、被写体追従モードがOffの場合もOnの場合も、設定されている顔検出モードに応じた顔検出処理、顔識別処理を行うようにしたが、被写体追従モードがOnの場合は、設定されている顔検出モードの種類にかかわらず、3次元の顔検出処理、3次元の顔識別処理を行うようにしてもよい。この3次元の顔検出処理により検出された顔、3次元の顔識別処理により識別された顔を2次元的に顔を検出してくことにより、該検出された顔の追従処理を行い、シャッタボタンが全押しされるまでに該顔を見失った場合は、再び3次元の顔検出処理、3次元の顔識別処理を行うようにする。
(02)また、上記各実施の形態においては、図3のステップS10、図9のステップS108の設定されている顔検出モードに応じた顔検出処理は、人用の顔検出モードが設定されている場合は、2次元の顔検出処理、2次元の顔識別処理を行い(図5のステップS32、図11のステップS152、ステップS154)、2次元の顔検出処理、2次元の顔識別処理により顔が検出されない場合に(図5のステップS33でNo、図11のステップS153、ステップS155でNo)、初めて3次元の顔検出処理を行うようにしたが(図5のステップS35、ステップS36、図11のステップS156、ステップS158、ステップS159)、3次元の顔検出処理、3次元の顔識別処理を行わないようにしてもよい。この場合は、図5のステップS33、図11のステップS153、ステップS155で、人の顔がない、登録された人物の顔がないと判断すると、図5のステップS39、図11のステップS162に進む。この場合は、図5のステップS34及びステップS35、図11のステップS156〜ステップS158の動作は不要ということになる。
(03)また、上記各実施の形態において、図3のステップS10、図9のステップS108の設定されている顔検出モードに応じた顔検出処理、顔識別処理は、動物用の顔検出モード(たとえば、犬用の顔検出モード、猫用の顔検出モード等)、動物用の顔識別モードが設定されている場合は、一律に3次元の顔検出処理、3次元の顔識別処理より設定されている顔検出モードの動物の種類の顔を検出、識別するようにしたが(図5のステップS36、図11のステップS159)、ある種類の動物用の顔検出モード、顔識別モードが設定された場合は、人用の顔検出モード、人用の顔識別モードが設定されたときと同様の動作を行うようにしてもよい。つまり、該設定された種類の動物用の顔検出モード、顔識別モードに応じて2次元の顔検出処理を実行したり、3次元の顔検出処理のみを実行したりするようにしてもよい。たとえば、猫用の顔検出モードが設定された場合は人用の顔検出モードが設定されたときと同様の処理を行い、犬用の顔検出モードが設定された場合は3次元の顔検出処理のみを行う。すべての種類の動物の顔が立体的ではないからであり、平面的な顔の動物もあるからである。なお、このとき、2次元の顔検出処理を行った場合に、該2次元の顔検出処理により設定された顔検出モードの動物の種類の顔が検出できなかった場合は、3次元の顔検出処理を実行させるようにしてもよいし、実行させないようにしてもよい。
この場合は、図2に示すような顔データテーブルには、動物の種類毎に、2次元の顔データや3次元の顔データを設定しておく。
これにより、顔認識の精度を向上させることができる。
(04)また、上記各実施の形態においては、図5のステップS32で、画像データの全領域に基づいて2次元の顔検出処理、2次元の顔識別処理を、図5のステップS36で、画像データの全領域に基づいて3次元の顔検出処理、3次元の顔識別処理を、図11のステップS152で、画像データの全領域に基づいて2次元の顔検出処理を、図11のステップS159で、画像データの全領域に基づいて3次元の顔識別処理を行うようにしたが、画像データの全領域ではなく、画角の中央領域、または、ユーザによって任意に指定された領域に基づいて行うようにしてもよい。これにより、顔検出処理、顔識別処理の処理負担を軽減させることができる。
また、顔検出モードの種類、顔識別モードの種類に対応して色成分を関連付けて記録しておき、図5のステップS32、図5のステップS36、図11のステップS152、ステップS159では、画像データの全領域ではなく、現在設定されている顔検出モード、顔識別モードの種類に対応する色成分を有する領域のみに基づいて行うようにしてもよい。この顔検出モード、顔識別モードの種類に対応した色成分とは、顔検出モード、顔識別モードの種類の被写体の顔の色成分である。たとえば、人用の顔識別モードの場合に対応する色成分は肌色ということになる。これにより、設定された顔検出モード、顔識別モードの種類の被写体の顔があると思われる領域のみに基づいて顔検出処理、顔識別処理を行うことができ、処理負担を軽減させることができる。
(05)また、上記各実施の形態においては、被写体の特徴点や被写体の種類毎の特徴点を抽出して特徴データを抽出し、該抽出した特徴データに基づいて3次元モデルを生成したり、該抽出した特徴データを比較照合することにより顔を検出、識別するようにしたが、他の方法によって3次元モデルを生成したり、顔を検出、識別したりするようにしてもよい。
また、複数枚の画像データに基づいて被写体の3次元モデルを生成するようにしたが、1枚の画像データから被写体の3次元モデルを生成するようにしてもよい。
(06)また、上記各実施の形態においては、静止画撮影処理により撮影された静止画像データのみを記録するようにしたが、顔検出処理により検出された顔の位置や顔の種類(設定された顔検出モードの種類)、顔識別処理により識別された顔の位置や名称(たとえば、人の場合は人物名、動物の場合は動物の名称若しくはペットの名前等)を静止画像データに関連付けて記録するようにしてもよい。
(07)また、上記各実施の形態においては、検出した顔、識別した顔に基いてAF処理を行うようにしたが、検出された顔、識別した顔に基づいて露出制御を行なったり、トリミング処理を行うというように、検出された顔、識別された顔に基づいて所定の処理を行うようにしてもよい。
(08)また、上記各実施の形態においては、人、犬、猫等大まかな被写体の種類毎の立体顔データや2次元の顔データを記録するようにしたが、被写体の種類さらに詳しく分類して立体顔データや2次元の顔データを記録するようにしてもよい。例えば、犬なら柴犬、秋田犬、・・・、猫なら、ペルシャ猫、三毛猫、・・というように詳しく分類するようにする。これにより、顔検出、顔識別の精度を向上させることができる。
(09)また、図2に示す顔検出用の顔データテーブルは、被写体の種類毎に同じ次元の顔データは1つしか記録していなかったが、被写体の種類毎に同じ次元の顔データを複数記録しておくようにしてもよい。たとえば、同じ猫であってもその種類によっては極端に顔が変わる可能性もあり、すべての猫の顔が検出することができるように、複数の立体顔データを記録する。
(10)また、上記各実施の形態においては、顔検出モード、顔識別モード(これらを総称して顔認識モードという)の種類を1つ設定するようにしたが、顔検出モード、顔識別モードの種類を複数同時に設定するができるようにし、該同時に設定されたすべての顔検出モード、顔識別モードの種類の顔を検出するようにしてもよい。なお、このとき、顔検出モード、顔識別モードの種類によっては顔検出処理、顔識別処理の動作が変わってしまうので(図5、図11参照)、動作が変わらない範囲内で複数の顔検出モード、顔識別モードを同時に設定するようにする。
(11)また、上記各実施の形態においては、人用の顔認識モードと、動物用の顔認識モードを備えるようにしたが、これに限らず、他の種類の被写体、たとえば、昆虫の顔を検出する昆虫用の顔認識モードを備える(この場合は、カブトムシ用の顔認識モード、クワガタ用の顔認識モードというように昆虫の種類毎に顔認識モードを備える)ようにしてもよい。
(12)また、上記第1、2の実施の形態における図5の動作においては、2次元の顔検出処理により人の顔が検出されない場合は(ステップS33でNo)、3次元の顔検出処理を行うようにしたが(ステップS35、ステップS36)、ステップS34で顔らしきものがあると判断された場合のみ3次元の顔検出処理を行うようにしてもよい。つまり、ステップS34で顔らしきものがないと判断するとそのままステップS39に進む。この場合は、ステップS36の動作は不要ということになる。
(13)また、上記第3の実施の形態における図11の動作においては、2次元の顔検出処理により人の顔が検出されないと(ステップS153でNo)、顔らしきものがあるか否かを判断し(ステップS157)、顔らしきものがある場合には、顔らしきものがある領域に基づいて3次元の顔識別処理を行い(ステップS158)、顔らしきものがない場合には全領域に基づいて3次元の顔識別処理を行うようにしたが(ステップS159)、ステップS157で顔らしきものがないと判断した場合は、そのままステップS162に進むようにしてもよい。
(14)また、本発明の特徴となる部分は、顔認識モード(顔検出モードと顔識別モードの総称)に応じて顔認識処理の動作を変えるという点にあるので、上記各実施の形態では、被写体の種類毎に顔認識モードというものを設けたが、被写体の種類毎でなくてもよい。
たとえば、顔認識モードを、2次元の顔認識処理により認識する2次元顔認識モード、3次元の顔認識処理により認識する3次元顔認識モードというように、顔認識処理の次元毎に設けてもよい。この場合は、人の顔を認識する場合は、まず、2次元顔認識モードに設定して顔認識処理を行い、顔が認識されない場合は3次元顔認識モードに設定するようにしてもよい。
また、動物の顔を認識する場合は、最初から3次元顔認識モードに設定するようにしてもよいし、動物の種類に応じて2次元顔認識モードに設定したり、3次元顔認識モードに設定したりするようにしてもよい。この場合、2次元顔認識モードに設定した場合であって、該2次元顔認識モードにより顔が認識できなかった場合は3次元顔認識モードに設定するようにしてもよい。
さらに、被写体の種類と顔認識の次元とを考慮して顔認識モードを設けるようにしてもよい。
たとえば、上記各実施の形態においては、人用の顔認識モードの中に、2次元の顔認識処理、3次元の顔認識処理が含まれるが、2次元の顔認識により人の顔を認識する人用の2次元顔認識モード、3次元の顔認識処理により人の顔を認識する人用の3次元顔認識モードというように、被写体の種類と顔認識の次元との組み合わせ毎に顔認識モードを備えるようにしてもよい。
たとえば、人用の2次元顔認識モードが設定された場合は、該設定された人用の2次元顔認識モードに対応する顔認識処理を行い、顔が検出されない場合は、人用の3次元顔認識モードに自動的に切り換え設定して顔認識処理を行うようにしてもよい。また、人の顔を認識する場合は、まず、人用の2次元顔認識モードを設定するようにしてもよい。
また、同じ種類の動物(たとえば、猫)の顔を認識するモードが、2次元顔認識モードと、3次元顔認識モードと2つある場合は、最初に2次元顔認識モードに設定して顔認識処理を行い、顔が認識されない場合に初めて、3次元顔認識モードに設定して顔認識処理を行うようにしてもよい。
また、上記各実施の形態で説明した被写体追従モードも顔認識モードの一種(追従顔認識モード)と考えることも可能であり、たとえば、図4のステップS22、図10のステップS121に進むと、追従顔認識モードに切り換えて設定し、該設定された追従顔認識モードに応じた顔認識処理を、つまり、図3のステップS10、図9のステップS108で直近に認識された顔を2次元的に検出することにより該顔を追従していく動作を行うことになる。また、図4のステップS24、図10のステップS123で該追従している顔を見失ったと判断すると、追従顔認識モードの直前に設定されていた顔認識モードに再設定して、図3のステップSステップS10、図9のステップS108に戻るということになる。
(15)また、上記変形例(01)乃至(14)を任意に組み合わせた態様であってもよい。
(16)また、本発明の上記実施形態は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造、動作等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、撮像された画像データに基づいて顔を認識することができる機器であれば適用可能である。
本発明の実施の形態のデジタルカメラのブロック図である。 メモリ12に記録されている顔データテーブルの様子を示す図である。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 設定された顔検出モードの種類に応じた顔検出処理の動作を示すフローチャートである。 1つ目の3次元の顔検出処理の動作を示すフローチャートである。 生成された被写体(ここでは猫科の顔のみ)の3次元モデルを3角形ポリゴンで表したときの様子を示す図である。 2つ目の3次元の顔検出処理の動作を示すフローチャートである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 設定された顔識別モードの種類に応じた顔識別処理の動作を示すフローチャートである。
符号の説明
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 ドライバ
7 TG
8 ユニット回路
9 画像生成部
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 フラッシュメモリ
15 画像表示部
16 バス

Claims (14)

  1. 被写体の認識機能を有した撮像装置であって、
    被写体を撮像する撮像手段と、
    被写体の顔を認識する際に実行する顔認識処理の内容が各々異なる複数の顔認識モードを備え、該複数の顔認識モードの中から何れかの顔認識モードを設定する顔認識モード設定手段と、
    前記撮像手段により撮像された画像データに対して、前記顔認識モード設定手段により設定された顔認識モードに応じた顔認識処理を実行することにより、該撮像された画像データ内にある顔を認識する顔認識手段と、
    個人の顔に関する個人情報を登録する個人登録手段と、
    を備え、
    前記顔認識モード設定手段は、設定可能な顔認識モードとして、前記個人登録手段により登録された特定の個人の顔を識別する顔識別モードと、前記個人登録手段に登録されていない人物を含めて人の顔を検出する顔検出モードを含み、
    前記顔認識手段は、前記顔識別モードが設定された場合には、前記個人登録手段により登録された個人情報に基づいて特定の個人の顔を識別する顔識別処理を実行し、前記顔検出モードが設定された場合には、前記個人登録手段に個人情報が登録されていない人物を含めて人の顔を検出する顔検出処理を実行することを特徴とする撮像装置。
  2. 前記顔認識手段は、前記顔識別モードが設定された場合には、前記顔識別処理を実行するとともに、この顔識別処理で識別された特定の個人の顔を対象として所定の処理を行い、前記顔検出モードが設定された場合には、前記顔検出処理を実行するとともに、この顔検出処理で検出された人の顔を対象として所定の処理を行うことを特徴とする請求項1に記載の撮像装置。
  3. 前記顔認識手段は、前記顔識別処理または前記顔検出処理により検出または識別された顔を対象として、AF処理、露出制御、トリミング処理のうちのいずれかの処理を行うことを特徴とする請求項2に記載の撮像装置。
  4. 前記顔認識手段は、前記顔識別モードが設定された場合には、前記顔検出処理を実行した後、この顔検出処理で検出された人の顔を対象として、前記顔識別処理を実行するとともに、この顔識別処理で識別された特定の個人の顔を対象として所定の処理を行い、前記顔検出モードが設定された場合には、前記顔検出処理を実行した後、前記顔識別処理を実行することなく、この顔検出処理で検出された人の顔を対象として所定の処理を行うことを特徴とする請求項3に記載の撮像装置。
  5. 前記顔認識モード設定手段は、前記撮像手段により撮像される画像データに基づいて自動的に顔認識モードを設定することを特徴とする請求項1に記載の撮像装置。
  6. 前記顔認識モード設定手段は、ユーザーが任意に顔認識モードを設定することを特徴とする請求項1に記載の撮像装置。
  7. 前記顔認識モード設定手段は、ユーザーが任意に顔認識モードを設定して顔認識処理を実行した後、この顔認識処理の結果に応じて更に他の顔認識モードを設定することを特徴とする請求項5または6に記載の撮像装置。
  8. 前記顔認識手段は、前記顔識別モードが設定された場合には、前記顔検出処理を実行した後、この顔検出処理で検出された人の顔を対象として、前記顔識別処理を実行することを特徴とする請求項1に記載の撮像装置。
  9. 前記顔認識モード設定手段は、前記顔検出モードを設定して前記顔検出処理により人の顔を検出させた後、前記顔識別モードを設定して前記顔識別処理により個人の顔を識別させることを特徴とする請求項1に記載の撮像装置。
  10. 前記顔認識モード設定手段は、複数の顔認識モードの1つを設定し、
    前記顔認識手段は、設定された1つの顔認識モードで顔認識処理を実行することを特徴とする請求項1に記載の撮像装置。
  11. 前記顔認識モード設定手段は、複数の顔認識モードを同時に設定し、
    前記顔認識手段は、同時に設定された全ての顔認識モードで顔認識処理を実行することを特徴とする請求項1に記載の撮像装置。
  12. 前記顔認識モード設定手段は、前記顔検出モードと前記顔識別モードを同時に設定し、
    前記顔認識手段は、同時に設定された前記顔識別処理と前記顔検出処理を実行することを特徴とする請求項11に記載の撮像装置。
  13. コンピュータに、
    被写体の顔を認識する際に実行する顔認識処理の内容が各々異なる複数の顔認識モードを備え、該複数の顔認識モードの中から何れかの顔認識モードを設定する顔認識モード設定処理と、
    画像データに対して、前記顔認識モード設定処理により設定された顔認識モードに応じた顔認識処理を実行することにより、該撮像された画像データ内にある顔を認識する顔認識処理と、
    個人の顔に関する個人情報を登録する個人登録処理と、
    を実行させる顔認識方法であって、
    前記顔認識モード設定処理は、設定可能な顔認識モードとして、前記個人登録処理により登録された特定の個人の顔を認識する第1の顔認識モードと、前記個人登録処理で登録されていない人物を含めて人の顔を認識する第2の顔認識モードを含み、
    前記顔認識処理は、前記第1の顔認識モードが設定された場合には、前記個人登録処理により登録された個人情報に基づいて特定の個人の顔を認識する顔認識処理を実行し、前記第2の顔認識モードが設定された場合には、前記個人登録処理で個人情報が登録されていない人物を含めて人の顔を認識する顔認識処理を実行することを特徴とする顔認識方法。
  14. 撮像手段を備えたコンピュータを、
    被写体の顔を認識する際に実行する顔認識処理の内容が各々異なる複数の顔認識モードを備え、該複数の顔認識モードの中から何れかの顔認識モードを設定する顔認識モード設定手段、
    前記撮像手段により撮像された画像データに対して、前記顔認識モード設定手段により設定された顔認識モードに応じた顔認識処理を実行することにより、該撮像された画像データ内にある顔を認識する顔認識手段、
    個人の顔に関する個人情報を登録する個人登録手段、
    として機能させ、
    前記顔認識モード設定手段は、設定可能な顔認識モードとして、前記個人登録手段により登録された特定の個人の顔を認識する第1の顔認識モードと、前記個人登録手段に登録されていない人物を含めて人の顔を認識する第2の顔認識モードを含み、
    前記顔認識手段は、前記第1の顔認識モードが設定された場合には、前記個人登録手段により登録された個人情報に基づいて特定の個人の顔を認識する顔認識処理を実行し、前記第2の顔認識モードが設定された場合には、前記個人登録手段に個人情報が登録されていない人物を含めて人の顔を認識する顔認識処理を実行することを特徴とするプログラム。
JP2007225922A 2007-08-31 2007-08-31 撮像装置、顔認識方法およびそのプログラム Active JP5099488B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007225922A JP5099488B2 (ja) 2007-08-31 2007-08-31 撮像装置、顔認識方法およびそのプログラム
US12/193,279 US8218815B2 (en) 2007-08-31 2008-08-18 Image pick-up apparatus having a function of recognizing a face and method of controlling the apparatus
CN201210211324.0A CN102752509B (zh) 2007-08-31 2008-08-28 摄像装置及其程序
CN201410360488.9A CN104092947B (zh) 2007-08-31 2008-08-28 摄像装置、脸辨别方法以及记录介质
CN2008102149072A CN101377815B (zh) 2007-08-31 2008-08-28 摄像装置及其程序
US13/493,679 US8611605B2 (en) 2007-08-31 2012-06-11 Image pick-up apparatus having a function of recognizing a face and method of controlling the apparatus
US14/012,684 US8744129B2 (en) 2007-08-31 2013-08-28 Image pick-up apparatus having a function of recognizing a face and method of controlling the apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007225922A JP5099488B2 (ja) 2007-08-31 2007-08-31 撮像装置、顔認識方法およびそのプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012045142A Division JP5267695B2 (ja) 2012-03-01 2012-03-01 撮像装置、顔認識方法及びそのプログラム

Publications (3)

Publication Number Publication Date
JP2009060379A JP2009060379A (ja) 2009-03-19
JP2009060379A5 JP2009060379A5 (ja) 2010-09-24
JP5099488B2 true JP5099488B2 (ja) 2012-12-19

Family

ID=40407545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007225922A Active JP5099488B2 (ja) 2007-08-31 2007-08-31 撮像装置、顔認識方法およびそのプログラム

Country Status (3)

Country Link
US (3) US8218815B2 (ja)
JP (1) JP5099488B2 (ja)
CN (3) CN104092947B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017148033A (ja) * 2016-02-23 2017-08-31 株式会社最先端研究開発支援センター 動物忌避装置及び動物忌避システム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1574988B1 (en) * 2004-03-08 2014-06-18 Siemens Product Lifecycle Management Software Inc. Determining and using geometric feature data
US8237847B2 (en) * 2008-10-16 2012-08-07 Fujinon Corporation Auto focus system having AF frame auto-tracking function
JP2010124120A (ja) * 2008-11-18 2010-06-03 Fujinon Corp オートフォーカスシステム
JP5356162B2 (ja) * 2009-09-07 2013-12-04 株式会社ザクティ 物体像探索装置
JP2011071573A (ja) * 2009-09-24 2011-04-07 Sanyo Electric Co Ltd 画像処理装置
JP5389592B2 (ja) * 2009-09-30 2014-01-15 富士フイルム株式会社 特定被写体検出方法及び装置
JP5662670B2 (ja) * 2009-10-27 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5485712B2 (ja) * 2010-01-07 2014-05-07 株式会社ザクティ 電子カメラ
US8957981B2 (en) 2010-03-03 2015-02-17 Intellectual Ventures Fund 83 Llc Imaging device for capturing self-portrait images
JP5514599B2 (ja) * 2010-03-24 2014-06-04 アズビル株式会社 2d・3d複合照合装置
US8675926B2 (en) * 2010-06-08 2014-03-18 Microsoft Corporation Distinguishing live faces from flat surfaces
JP5780750B2 (ja) * 2010-12-20 2015-09-16 キヤノン株式会社 自動合焦装置、その制御方法及びプログラム
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
US8929598B2 (en) * 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program
US11880227B1 (en) * 2011-07-11 2024-01-23 Snoutscan Llc System and method for animal identification
JP5849558B2 (ja) * 2011-09-15 2016-01-27 オムロン株式会社 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
KR20140110584A (ko) * 2013-03-08 2014-09-17 삼성전자주식회사 증강 현실 제공 방법, 저장 매체 및 휴대 단말
EP3032307A4 (en) * 2013-09-24 2017-02-22 Sony Corporation Imaging device, imaging method and program
JP6630999B2 (ja) * 2014-10-15 2020-01-15 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
US9576190B2 (en) 2015-03-18 2017-02-21 Snap Inc. Emotion recognition in video conferencing
JP2017147764A (ja) * 2017-05-23 2017-08-24 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US10885314B2 (en) * 2018-01-22 2021-01-05 Kneron Inc. Face identification system and face identification method with high security level and low power consumption
CN108737714A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 一种拍照方法及装置
CN108921026A (zh) * 2018-06-01 2018-11-30 平安科技(深圳)有限公司 动物身份的识别方法、装置、计算机设备和存储介质
CN110826371A (zh) * 2018-08-10 2020-02-21 京东数字科技控股有限公司 一种动物识别方法、装置、介质及电子设备
CN109151304B (zh) * 2018-08-22 2021-09-14 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及计算机可读取存储介质
CN112805720A (zh) * 2018-10-10 2021-05-14 利拉伐控股有限公司 使用视觉技术的动物标识
CN109274891B (zh) * 2018-11-07 2021-06-22 北京旷视科技有限公司 一种图像处理方法、装置及其存储介质
CN115812309A (zh) * 2020-06-12 2023-03-17 佳能株式会社 图像处理设备及其控制方法
CN112086058A (zh) * 2020-09-29 2020-12-15 京东方科技集团股份有限公司 显示控制装置及方法、显示设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09259271A (ja) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> 人物照合装置
GB2343945B (en) * 1998-11-18 2001-02-28 Sintec Company Ltd Method and apparatus for photographing/recognizing a face
JP4218348B2 (ja) * 2003-01-17 2009-02-04 オムロン株式会社 撮影装置
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
JP2005117242A (ja) 2003-10-06 2005-04-28 Canon Inc 撮像装置及びその制御方法
US20050276481A1 (en) 2004-06-02 2005-12-15 Fujiphoto Film Co., Ltd. Particular-region detection method and apparatus, and program therefor
JP4478510B2 (ja) * 2004-06-03 2010-06-09 キヤノン株式会社 カメラシステム、カメラ、及びカメラの制御方法
CN1315092C (zh) 2005-02-04 2007-05-09 浙江大学 基于极光谱图像的三维人脸识别方法
JP4645223B2 (ja) * 2005-02-18 2011-03-09 富士通株式会社 顔追跡プログラムおよび顔追跡方法
CN1885307A (zh) * 2005-06-20 2006-12-27 英华达(上海)电子有限公司 数码摄影图像中人脸区域的识别与处理结合的方法
JP4577113B2 (ja) * 2005-06-22 2010-11-10 オムロン株式会社 対象決定装置、撮像装置および監視装置
JP2007010898A (ja) * 2005-06-29 2007-01-18 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2007011970A (ja) * 2005-07-04 2007-01-18 Fujifilm Holdings Corp 画像処理装置および画像処理方法ならびにプログラム
JP4678843B2 (ja) 2005-09-15 2011-04-27 キヤノン株式会社 撮像装置、及びその制御方法
JP2007150604A (ja) * 2005-11-25 2007-06-14 Nikon Corp 電子カメラ
CN100356388C (zh) * 2005-12-31 2007-12-19 清华大学 生物特征融合的身份识别和认证方法
JP4450799B2 (ja) 2006-03-10 2010-04-14 富士フイルム株式会社 対象画像検出装置の制御方法
JP5087856B2 (ja) * 2006-04-05 2012-12-05 株式会社ニコン 電子カメラ
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
JP4942189B2 (ja) * 2007-05-11 2012-05-30 キヤノン株式会社 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP4315215B2 (ja) * 2007-05-18 2009-08-19 カシオ計算機株式会社 撮像装置、及び顔検出方法、顔検出制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017148033A (ja) * 2016-02-23 2017-08-31 株式会社最先端研究開発支援センター 動物忌避装置及び動物忌避システム

Also Published As

Publication number Publication date
CN101377815A (zh) 2009-03-04
US8218815B2 (en) 2012-07-10
US20120243752A1 (en) 2012-09-27
CN102752509B (zh) 2016-06-22
US8611605B2 (en) 2013-12-17
CN101377815B (zh) 2012-07-25
CN104092947B (zh) 2018-06-15
CN104092947A (zh) 2014-10-08
CN102752509A (zh) 2012-10-24
JP2009060379A (ja) 2009-03-19
US20130342656A1 (en) 2013-12-26
US20090060274A1 (en) 2009-03-05
US8744129B2 (en) 2014-06-03

Similar Documents

Publication Publication Date Title
JP5099488B2 (ja) 撮像装置、顔認識方法およびそのプログラム
TWI393434B (zh) 攝像裝置及程式儲存記憶媒體
US8594390B2 (en) Composition determination device, composition determination method, and program
EP2059029B1 (en) Image composition determining apparatus, image composition determining method and program
CN104243800B (zh) 控制装置和存储介质
WO2016016984A1 (ja) 撮像装置およびその被写体追尾方法
JP4577275B2 (ja) 撮像装置、画像記録方法、および、プログラム
JP4552997B2 (ja) 撮像装置及びプログラム
JP2008205650A (ja) 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP2004320286A (ja) デジタルカメラ
JP5030022B2 (ja) 撮像装置及びそのプログラム
JP2008270896A (ja) 撮像装置及びそのプログラム
JP5228354B2 (ja) ディジタルカメラ
JP4853707B2 (ja) 撮像装置及びそのプログラム
JP5267695B2 (ja) 撮像装置、顔認識方法及びそのプログラム
JP2008299784A (ja) 被写体判定装置及びそのプログラム
JP4577445B2 (ja) 撮像装置、画像記録方法、および、プログラム
KR20140116014A (ko) 화상 취득 장치, 화상 취득 방법 및 기록매체
JP2008288797A (ja) 撮像装置
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP5088612B2 (ja) 撮像装置、撮像装置の処理実行方法及びそのプログラム
JP5126285B2 (ja) 撮像装置及びそのプログラム
JP5182308B2 (ja) 撮像装置及びそのプログラム
JP5423851B2 (ja) 電子カメラ
JP5413621B2 (ja) 撮像装置及びそのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5099488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250