JP2004320287A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2004320287A
JP2004320287A JP2003109886A JP2003109886A JP2004320287A JP 2004320287 A JP2004320287 A JP 2004320287A JP 2003109886 A JP2003109886 A JP 2003109886A JP 2003109886 A JP2003109886 A JP 2003109886A JP 2004320287 A JP2004320287 A JP 2004320287A
Authority
JP
Japan
Prior art keywords
characteristic part
digital camera
characteristic
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003109886A
Other languages
Japanese (ja)
Other versions
JP4196714B2 (en
Inventor
Hirotake Nozaki
弘剛 野崎
Hideomi Hibino
秀臣 日比野
Masa Ota
雅 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Nikon Gijutsu Kobo KK
Original Assignee
Nikon Corp
Nikon Gijutsu Kobo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp, Nikon Gijutsu Kobo KK filed Critical Nikon Corp
Priority to JP2003109886A priority Critical patent/JP4196714B2/en
Priority to US10/814,142 priority patent/US20040207743A1/en
Priority to DE602004030390T priority patent/DE602004030390D1/en
Priority to EP04252199A priority patent/EP1471455B1/en
Publication of JP2004320287A publication Critical patent/JP2004320287A/en
Priority to US12/289,689 priority patent/US20090066815A1/en
Application granted granted Critical
Publication of JP4196714B2 publication Critical patent/JP4196714B2/en
Priority to US13/067,502 priority patent/US20110242363A1/en
Priority to US13/964,648 priority patent/US9147106B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of extracting featured points and easily selecting desired featured points after display of the featured points and to provide a digital camera capable of surely recoding information related to the selected featured points. <P>SOLUTION: The digital camera is provided with: an extract means for extracting prescribed featured points from image data; a reception means for receiving an instruction from a user; a selection means for selecting the respective featured points in a prescribed order according to the instruction received by the reception means when a plurality of the featured points are extracted; and a display means for displaying particularized part information for particularizing the featured points selected by the selection means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、人物の特徴点を識別し、その識別結果に応じて動作するデジタルカメラに関する。
【0002】
【従来の技術】
従来から、指紋あるいは虹彩の特徴点を予め登録しておいてこれと照合することで本人を認証するシステムを初めとして画像データから人物を識別する技術はこれまで多く知られている。特開平9−251534号公報には目、鼻、口等を抽出して特徴点として登録しこれと入力した画像から抽出した特徴点とを比較して当人として識別する方法が詳細に記述されており、特開平10−232934号公報にはこの様にして抽出した特徴点を登録する場合の辞書画像の精度を上げる方法が開示されている。これらの技術をカメラに応用した例を以下に挙げる。
【0003】
特開2001−201779号公報には予めカメラの使用者を参照情報として登録しておき、カメラ使用者がカメラを自分の顔に向けて撮影することで入力した識別情報と一致した場合にのみカメラ動作を可能とするカメラが開示されている。特開2001−309225号公報には顔認識アルゴリズムにより認識された顔の座標、寸法、目の位置、頭のポーズ等のデータが画像メモリに画像データとともに記録されるカメラが開示されている。特開2001−326841号公報には予め正規の使用者を識別するための識別情報(顔、指紋、掌紋)を記憶しておく画像撮像装置(デジタルカメラ)が開示されている。特開2002−232761号公報には撮影した画像に予め読み込んでおいた被写体の識別情報を関連付けて記録する画像記録装置が開示されている。特開2002−333652号公報には予め記憶された容貌情報と撮影顔情報を比較し記録信号を発生する撮影装置が開示されている。この容貌情報は優先度とともに記録される。
【0004】
【発明が解決しようとする課題】
本発明においては上述したこれまでの発明においては達成されていなかった、特徴点を抽出し表示した後に容易に所望の特徴点を選択する方法や、これら選択した特徴点に関する情報を確実に記録することのできるデジタルカメラを提供することを目的とする。
【0005】
【問題点を解決する為の手段】
上記問題点の解決のために、請求項1の発明は、画像データから所定の特徴部位を抽出する抽出手段と、ユーザからの指示を受け付ける受付手段と、前記特徴点が複数抽出された場合に前記受付手段が受け付けた指示によりそれぞれの特徴部位を所定の順番で選択する選択手段と、前記選択手段により選択された前記特徴部位を特定する特徴部位情報を表示する表示手段とを備えたことを特徴とする。これにより、ユーザは容易に所望の人物等を特定して選択することが出来る。請求項2の発明で、前記表示手段は前記画像データに重畳して前記特徴部位情報を表示しており、請求項3の発明では、更に、前記抽出手段によって抽出された前記特徴部位から顔の大きさを判別する判別手段を備え、前記選択手段は前記判別手段が判別した顔の大きい順に選択され、請求項4の発明では、更に、前記抽出手段によって抽出された前記特徴部位までの距離を判別する判別手段を備え、前記選択手段は前記判別手段が判別した距離の近い順に選択するようにされているので容易に所望の被写体を選択することが出来る。請求項5の発明では、更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアをフォーカスを検出するためのフォーカスエリアとして設定するフォーカスエリア設定手段を備え、請求項6の発明では更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアを測光エリアとして設定する測光エリア設定手段を備えたことを特徴としている。
【0006】
請求項7の発明は、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を受け付ける受付手段と、前記特徴部位と前記特徴部位に関する情報を記憶する記憶手段とを備えたことを特徴としている。すなわち、入力された特徴部位に関する情報を特徴部位とともに記憶媒体に記憶している。請求項8の発明は、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を入力する入力手段と、前記特徴部位と前記特徴部位に関する情報とを前記画像データと関連付けて記録するよう指示する指示手段と、前記指示手段によって関連付けられた前記特徴部位と前記特徴部位に関する情報と前記画像データとを記憶する記憶手段とを備えたことを特徴としている。すなわち、入力された特徴部位に関する情報を特徴部位とともに抽出した画像データと関連付けてメモリカード等の記憶媒体に記憶しているので特徴部位に関する情報に基づいてあとから検索する場合等に有効である。
【0007】
請求項9の発明によれば、前記特徴部位に関する情報とは前記特徴部位に関する人名等の固有名情報であり、請求項10の発明によれば、前記特徴部位に関する情報とは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報であって、請求項11の発明は、更に、前記優先順位情報を識別する識別手段と、前記識別手段が識別した優先順位に基づいて順に選択する選択手段とを備えたことを特徴としている。請求項12の発明では、更に、前記表示手段に表示されている所定の被写体までの距離を測定するための測距エリアを設定する測距エリア設定手段を備え、前記優先順位情報とは、前記複数の特徴部位の中から前記測距エリア設定手段が測距エリアを設定する際の優先順位であり、請求項13の発明では、更に、前記表示手段に表示されている所定の被写体の明るさを測定するための測光エリアを設定する測光エリア設定手段を備え、前記優先順位情報とは、前記複数の特徴部位の中から前記測光エリア設定手段が測光エリアを設定する際の優先順位である。
【0008】
請求項14の発明によって、前記特徴部位に関する情報とは前記特徴部位を含む画像データを記録する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報であり、請求項15の発明では、前記特徴部位に関する情報とは前記特徴部位を含む画像データを再生する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報である。また、請求項16の発明で、更に、前記表示手段に表示している特徴部位あるいはその特徴部位に関する情報の少なくとも一つが前記記録手段に記録済みであったならば記録済みであることを識別表示する識別表示手段を備え、請求項17の発明では、前記特徴部位に関する情報とは前記画像データから前記特徴部位を抽出したときの前記画像データ内における位置情報であることを特徴としている。
【0009】
請求項18の発明は、第1の特徴部位と前記第1の特徴部位に関する第1の固有名情報とが記憶された記憶手段と、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した第2の特徴部位に関する第2の固有名情報を入力する入力手段と、前記第1の固有名情報と前記第2の固有名情報とが同一であって且つ、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記記憶手段に追加して記憶する記憶手段とを備えたことを特徴としている。すなわち、予め記憶手段に記憶されている人名等の固有名情報と同一であって、抽出された特徴部位が異なっていたときにはその特徴部位を新たに追加して記憶していくことで徐々にその人物を判別する際の精度を向上させることが出来る。
【0010】
請求項19の発明は、第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記第1の記憶手段に追加して記憶する記憶手段とを備えたことを特徴としている。すなわち、予め画像データと特徴部位およびそれに関する人名情報等の固有名情報が記録されたメモリカードから同一の固有名情報に関する特徴部位を内蔵メモリに追加して記憶させることで徐々にその人物を判別する際の精度を向上させることが出来る。
【0011】
請求項20の発明は、第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位点と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第1の特徴部位が前記第2の特徴部位と異なった場合に前記第1の特徴部位を前記第2の記憶手段に追加して記憶するよう指示する指示手段とを備えた。すなわちこの場合は逆に予め画像データと特徴部位およびそれに関する人名情報等の固有名情報が記録された内蔵メモリから同一の固有名情報に関する特徴部位をメモリカードに追加して記憶させることでメモリカードに記録されていない特徴部位も追加記録されるのでメモリカードにおいても徐々にその人物に関する特徴部位の数を増加させることが出来る。
【0012】
請求項21の発明は、画像データを表示する表示手段と、前記画像データ内から所定の特徴部位を抽出する抽出手段と、複数の特徴部位を予め記憶する記憶手段と、前記抽出手段によって抽出された特徴部位が前記記憶手段に記憶されている複数の特徴部位のいずれかと一致するかどうか判別する判別手段と、前記判別手段によって判別された判別結果を前記表示手段に識別表示する識別表示手段とを備えたことを特徴とする。すなわち、抽出された特徴部位が既に記憶されているかどうかを直ちに判別することが出来る。請求項22の発明では、前記記憶手段は更に、前記特徴部位に関する固有名情報あるいは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報の少なくとも一つの情報を記憶し、前記識別表示手段は前記判別手段が一致していると判別した特徴点に対してその特徴部位に関する前記記憶手段に記憶されている情報を前記表示手段に表示することを特徴としている。
【0013】
請求項23の発明は、画像データから所定の被写体の特徴点を抽出する抽出手段と、前記抽出した特徴部位と前記画像データとを関連付けて管理する管理手段とを備えたことを特徴としている。これにより、画像データとそこから抽出した特徴部位とを同時に記録することが出来る。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明のデジタルカメラについてその主要な機能を説明したブロック図である。
【0015】
撮影レンズ101はその焦点距離を連続的に変えるためのズームレンズ、ピントを調整するフォーカシングレンズ、撮影時の手ブレを補正するVR(Vibration Reduction)レンズから構成されている。これらのレンズはドライバ113により駆動される。ここでドライバ113はズームレンズのズーム駆動機構及びその駆動回路と、フォーカシングレンズのフォーカス駆動機構及びその駆動回路と、VRレンズ駆動機構及びその駆動回路とを備えていて、それぞれCPU112により制御される。検出器121はフォーカシングレンズの位置およびズームレンズ位置を検出しCPU112にそれぞれのレンズ位置を伝える。
【0016】
撮影レンズ101は撮像素子103の撮像面上に被写体像を結像する。撮像素子103は撮像面上に結像された被写体像の光強度に応じた電気信号を出力する光電変換撮像素子であり、CCD型やMOS型の固体撮像素子が用いられる。撮像素子103は信号取り出しのタイミングをコントロールするドライバ115により駆動される。撮影レンズ101と撮像素子103との間には絞り102が設けられている。絞り102は、絞り機構とその駆動回路を備えたドライバ114により駆動される。固体撮像素子103からの撮像信号はアナログ信号処理回路104に入力され、アナログ信号処理回路104において相関二重サンプリング処理(CDS)等の処理が行われる。アナログ信号処理回路104で処理された撮像信号は、A/D変換器135によりアナログ信号からデジタル信号に変換される。
【0017】
A/D変換された信号はデジタル信号処理回路106において輪郭強調やガンマ補正などの種々の画像処理が施される。輪郭強調用のパラメータは予め複数用意されていて画像データに応じて最適のパラメータが選択される。このデジタル信号処理回路106には記録のための処理を施す輝度/色差信号生成回路等も含まれていて、これらを生成するためのパラメータも予め複数用意されている。これらの複数の色変換用パラメータから撮影された画像の応じて最良の色再現を得るために最適のパラメータが選択される。これら輪郭強調や色再現のための複数のパラメータは後述する記憶部1127に記憶されていて、ここから最適のパラメータをCPU112が選択する。バッファメモリ105は撮像素子103で撮像された複数フレーム分のデータを記憶することが出来るフレームメモリであり、A/D変換された信号は一旦このバッファメモリ105に記憶される。デジタル信号処理回路106ではバッファメモリ105に記憶されたデータを読み込んで上述した各処理を行い、処理後のデータは再びバッファメモリ105に記憶される。CPU112はデジタル信号処理回路106およびドライバ113〜115等と接続され、カメラ撮影動作のシーケンス制御を行う。CPU112のAE演算部1121では撮像素子からの画像信号に基づいて自動露出演算を行い、AWB演算部1122ではホワイトバランス用パラメータを設定するための演算が行われる。特徴点抽出演算部1123では所定のアルゴリズムに則って画像データの中から人物の形状、位置、サイズ等の特徴点を記憶部1127に記憶するとともに検出した顔や眼幅等の大きさとそのときの検出器121によって検出したズームレンズの焦点距離とから抽出したそれぞれの人物までのおよその距離も演算し抽出日時とともに記憶部1127に記憶する。ここで、図22を用いてこの距離演算方法を説明する。図22は抽出した眼幅を基に人物までの距離を演算する場合を示している。Aは一般成人の実際の眼幅の平均値、aは抽出された撮像素子上に結像した眼幅、Lは撮像レンズから人物までの距離、fはレンズの焦点距離である。この図から次の比例式が容易に導かれる。
【0018】
A/L=a/f
ここから、人物までの距離Lは、L=(A/a)・fとなる。記憶部1127にはこの様にして抽出された特徴点やそれに基づいて演算した特徴点迄の距離が一旦記憶される。それら記憶された特徴点の中からユーザは残しておきたい特徴点を選択して登録する。この登録する内容や登録方法については図13を基に後で詳細に説明する。
【0019】
バンドパスフィルタ(BPF)1124は、撮像領域に設けられた焦点検出エリア内の撮像信号に基づいて、所定帯域の高周波成分を抽出する。BPF1124の出力は次の評価値演算部1125に入力され、ここで高周波成分の絶対値を積分し焦点評価値として算出される。AF演算部1126はこれらの焦点評価値に基づいてコントラスト法によりAF演算を行う。CPU112はAF演算部1126の演算結果を用いて撮影レンズ101のフォーカシングレンズを調整し、合焦動作を行わせる。
【0020】
CPU112に接続された操作部116には、カメラの電源をオンオフする電源スイッチ1161、レリーズ釦に連動してオンオフする半押しスイッチ1162及び全押しスイッチ1163、撮影モードの各種の内容を選択するための設定釦1164、再生画像等を更新するアップダウン(U/D)釦1165等が設けられている。設定釦1164では抽出した特徴点に対して名称を付けるためにU/D釦1165を併用してアルファベットやひらがな、カタカナ、簡単な漢字等を選択して設定することもできる。U/D釦1165はこれ以外にも、複数抽出された人物から所望の人物を選択したり、撮影時には手動でズームレンズをテレあるいはワイド側に駆動するためにも使用される。
【0021】
被写体輝度が低い場合にはストロボ122を発光させる。このストロボにはストロボ使用時に撮影した人物の瞳が赤く撮影されるのを防止あるいは軽減する赤目防止のためや低輝度時に被写体輝度を予め測定するために撮影前に予め補助光を発光するプリ発光機能も備わっている。123はカメラの何らかの異常時に音声で警告するためのブザー等の発音体である。記憶部1127には前述した特徴点情報以外にAF演算の結果から検出される評価値のピーク値や対応するレンズ位置等も記憶される。デジタル信号処理回路106で各種処理が施された画像データは、一旦バッファメモリ105に記憶された後に、記録・再生信号処理回路110を介してメモリカード等の外部記憶媒体111に記録される。画像データを記憶媒体111に記録する際には、一般的に所定の圧縮形式、例えば、JPEG方式でデータ圧縮が行われる。記録・再生信号処理回路110では、画像データを外部記憶媒体111に記録する際のデータ圧縮及び外部記憶媒体111や他のカメラから転送されてきた圧縮された画像データの伸長処理を行う。121はそれぞれデジタルカメラ等の他の外部機器と無線あるいは有線で接続してデータ通信を行うインタフェース回路である。これら各インタフェースは同時に複数個備わっていても良い。
【0022】
モニタ109は撮像された被写体画像を表示したり撮影や再生させる際に各種の設定メニューを表示するための液晶(LCD)表示装置である。ここでは記憶媒体111に記録されている画像データや他のカメラから転送されてきた画像データを再生表示する際にも用いられる。モニタ109に画像を表示する場合には、バッファメモリ105に記憶された画像データを読み出し、D/A変換器108によりデジタル画像データをアナログ映像信号に変換する。そして、そのアナログ映像信号を用いてモニタ109に画像を表示する。
【0023】
このカメラで採用しているAF制御方式のコントラスト法について説明する。この方式では、像のボケの程度とコントラストの間には相関があり、焦点があったときに像のコントラストは最大になることを利用して焦点あわせを行う。コントラストの大小は撮像信号の高周波成分の大小により評価することが出来る。すなわち、BPF1124により撮像信号の高周波成分を抽出し、評価値演算部1125で高周波成分の絶対値を積分した物を焦点評価値とする。前述したように、AF演算部1126はこの焦点評価値に基づいてAF演算を行う。CPU112はAF演算部1126の演算結果を用いて撮影レンズ101のフォーカシングレンズ位置を調整し、合焦動作を行わせる。
【0024】
図2、図3に顔認識機能を備えたデジタルカメラの全体の動作フローを示す。図2においてまずステップS101でデジタルカメラの電源が電源SW1161によりオンされたことを検出するとステップS102でデジタルカメラの動作モードを確認する。ここでは設定釦S1164によって被写体を撮影する撮影モードに設定されているかメモリカードに記録されている画像データを再生表示する再生モードに設定されているかを判別する。再生モードに設定されていたならば図3ステップS117に進み、撮影モードに設定されていたならばステップS103に進む。ステップS103ではLCDモニタ109に撮影する被写体画像を動画で表示する。ステップS104では表示されている画像に対して所定のアルゴリズムに従って特徴点を抽出する特徴点抽出処理を行うよう設定されているかどうか判別する。この設定には設定釦1164を使用する。特徴点抽出処理をするように設定されていなかったならばステップS113に進み通常の撮影動作をする。特徴点抽出処理をするよう設定されていたならばステップS105に進んでLCDモニタ109に表示している動画像データの1コマあるいは2〜3コマ毎に表示画像から特徴点とその位置情報を抽出する。この抽出される特徴点としては人物の顔、眼、瞳、眉、鼻、口、耳、手、足、眼鏡等の輪郭やその向き、位置、大きさがある。さらに、髪型、骨格、着衣の種類も抽出することによって、男女の性別や人種を判別したり、年齢についても判断することが出来る。また、人間だけでなく、犬、猫、鳥等の動物や家屋、自動車等一般の被写体に対しても抽出することが出来る。以下の説明では主として人間に対して特徴点を抽出する。
【0025】
ステップS106では抽出した複数の特徴点に対して、予めデジタルカメラの記憶部1127に登録されている特徴点と一致するものがあるかどうか判別する。一致する特徴点がなかったならばステップS107でLCDモニタ109に表示している画像に対して特徴点が検出されたことを示すマーカを重畳して表示する。もし登録してある特徴点と一致する特徴点が検出された場合にはステップS108で登録済みであることを区別出来るように他の特徴点と異なるマーカで重畳表示する。図15に表示結果の1例を示す。ここでは画面内の5名の人物のうち1名は遠くにいて小さすぎるため顔としての特徴点が検出されず、残り4名に対して顔の特徴点が検出され、さらにそのうち1名が登録済みであることが判別されたことを示している。単に特徴点が検出されただけの3名に対してはそれぞれの顔を波線で囲っていて、既に登録済みの1名に対しては実線で囲っている。さらに、特徴点に対応した人名等の個人名情報も特徴点情報として同時に登録されていた場合には図15に示すようにそれも同時に表示する。これにより被写体の確認をより一層確実にすることが出来る。
【0026】
また、本実施例では、後述するAEエリアやAFエリアを選択する際の優先順位も特徴点情報として登録している。図13に記憶部1127における特徴点に関する記録状態の一例を示す。図13において特徴点としてA氏、B子、Cちゃんというようにそれぞれ名前が付けられた特徴点と、名前が付けられていない特徴点が名称無しとして順に登録されている。A氏の登録内容は更に前述したAEエリアやAFエリアを選択する際の優先順位が1に設定されている。これにより例えばA氏とCちゃんが同時に撮影画面内に抽出されたとしたらA氏を含むエリアが優先してAEエリアあるいはAFエリアに設定される。この優先順位は任意に変更することが出来る。A氏の特徴点情報としてA氏の特徴点を登録した日にちが登録日として次に記録されている。ここで(1)で示される登録日は最初にA氏を登録した日にちで(2)、(3)は(1)と異なった状態たとえば横向き、後ろ向き、眼鏡着用等の状態で撮影されたA氏の他の特徴点を追加して登録した日にちを示している。
【0027】
このように、眼鏡や髭の有無等によって同一人物としての特徴点を複数登録することで抽出した特徴点に対して人物を識別する確度が向上する。この特徴点についてもその内容をLCDモニタ109に表示するとともに任意に追加あるいは削除することが出来る。優先度、登録日以外に簡単なコメントやこの特徴点が検出された場合に有効な記録時あるいは再生時の処理方法(ホワイトバランス設定や輪郭補償処理設定等)、特徴点までの距離等についても記録するようにしても良い。このようにして登録するよう設定された特徴点の実際のデータは下の特徴点データエリアに順に記録される。
【0028】
ステップS109〜ステップS114では抽出した特徴点に応じた特有の処理をするときのステップを示している。もちろん特徴点が検出された場合であってもこれらの各ステップのうちからどのステップを採用するかは設定釦1164を使って任意に選択可能となっている。以降ではこれら全てのステップを選択するよう設定された場合について説明する。ステップS109では表示されている抽出結果を登録する。このステップS109の登録については図4で詳細に説明する。登録が終了したならばステップS110の撮影画角設定のステップに進む。このステップS110の設定をすることにより、撮影画面の中に複数の人物がいた場合でも自動的に目的の被写体を判別してその人物をズームアップして画面中央に捉えることが出来る。この機能は、自分の子供の運動会や発表会での撮影の際に効果的である。このステップS110の詳細については図5で説明する。ステップS111では撮影条件の設定を行う。ここでは撮影画面中に複数の人物がいた場合、希望する人物を含む所定エリアをAFエリアやAEエリアに設定したり、人物の大きさや数に応じた絞り設定を行う。このステップS111の詳細については図6〜図8で説明する。ステップS112ではストロボの設定を行う。ステップS112の詳細については図9で説明する。ここまでのステップS109からステップS112迄は撮影前の設定であり、撮影画面に応じて任意に設定順を変えることが出来るとともに各ステップにおいて一旦設定した内容を再設定することも可能である。
【0029】
ステップS113では被写体の撮影を行う。ここでは人物を検出して撮影枚数を自動的に設定したり、人物の撮影時の動作に応じて実際の露光を行う。この撮影ステップについては図10、図11で詳細に説明する。撮影終了後はステップS114で記録処理を行う。ここでは被写体の顔を検出してホワイトバランスを変えたり顔のシミやほくろ等を自動的に軽減する処理を行う。このステップS114の詳細は図12で行う。ステップS115では処理済みの画像データと特徴点情報とを一つのファイルとしてメモリカードに記録する。ステップS116では電源がオフされているかどうか判別する。オフされていなかったならばステップS102に戻ってデジタルカメラの動作モードを判別する。電源スイッチがオフされていたならば本シーケンスを終了する。
【0030】
ステップS102で再生モードに設定されていたならば図3ステップS117でメモリカード111に記録されていた画像データを再生してLCDモニタ109に表示する。この再生画像は静止画であっても動画であっても良い。ステップS118では再生画像に対してステップS104と同様に特徴点抽出処理を行うよう設定されているかどうか判別する。設定されていなかったならばステップS126に進み通常の再生動作を行う。特徴点抽出処理をするように設定されていたならばステップS119に進んで再生画像データに既に何らかの特徴点情報が付加されているかどうか判別する。特徴点情報が付加されていなかった場合にはステップS120でステップS105と同様に画像データから特徴点を抽出する。特徴点情報が付加されていた場合にはステップS121に進み、画像データに付加されている特徴点情報を読み出す。ステップS121では再生画像に抽出した特徴点あるいは読み出した特徴点や特徴点情報を重畳表示する。特徴点に代わって前述したマーカ表示やアイコン表示するようにしても良い。
【0031】
ステップS123では抽出した特徴点あるいは付加されていた特徴点が記録部1127に登録されている特徴点と一致するものがあるかどうか判別する。ここでも前述したステップS106の場合と同様、一致する特徴点がなかったならばステップS124でLCDモニタ109に表示している画像に対して特徴点が検出されたことを示すマーカやアイコンを重畳して表示する。もし登録してある特徴点と一致する特徴点が検出された場合にはステップS125で登録済みであることを区別して他の特徴点と異なるマーカで重畳表示する。ステップS126では表示されている抽出結果を登録する。この登録についても図4で説明する。ステップS126での登録が終了したらステップS127で次の画像データを再生するかどうか判別し、U/D釦1165で次の画像を選択されたならばステップS117に戻る。次画像が選択されなかったならばステップS128に進み、電源スイッチ1161がオフされたかどうか判別する。もしオフされていなかったならば図2ステップS102に戻り、オフされていたならば本シーケンスを終了する。
【0032】
《特徴点情報の登録》
図4を使って特徴点情報を登録するステップについて説明する。この図4の登録のステップは前述した図2ステップ109と図3ステップS126とで共通している。画像データが撮影した画像データの場合にはステップS151においては特徴点抽出演算部1123によって抽出した特徴点と同一の特徴点が記憶部1127に登録されているかどうか判別する。画像データが再生画像データの場合には、ステップS151ではその再生画像データに付加されている特徴点と特徴点情報とを読み出し、この読み出した特徴点あるいは特徴点情報と同一の特徴点や特徴点情報が図13で説明した記録形態で記憶部1127に記憶されているかどうか判別する。再生画像データにその特徴点や特徴点情報が付加されていない場合には撮影画像データの場合と同様に再生画像から特徴点を抽出する。ここで画像データに付加されている特徴点情報について図14を基に説明する。図14に示すようにDSC002という画像データのファイルには実際の画像データ以外に特徴点情報と特徴点データが付加して記録される。図14の場合には特徴点情報として、A氏とCちゃんの2名について登録されている。登録内容としては、優先度とこの画像データにおいてA氏あるいはCちゃんを抽出した日にちとその特徴点の重心位置、A氏については更にこのDSC002という画像データ以外の画像データから抽出したA氏の他の特徴点が二つあるのでそれについても追加して登録している。ここでも図13と同様に簡単なコメントや記録時あるいは再生時の処理方法について記録しておいても良い。更に特徴点抽出演算部1123で演算した特徴点までの距離を記録しておいても良い。特徴点情報のデータ内容の変更、追加、削除は任意である。これらA氏あるいはCちゃんの実際の特徴点データはその下の特徴点データエリアに順に記録される。
【0033】
ステップS151で撮影画像データの特徴点あるいは再生画像データに付加されていた特徴点と特徴点情報が記憶部1127に登録済みであったならばステップS152に進む。ここでは登録済み特徴点あるいは特徴点情報を追加あるいは変更するかどうか判別する。具体的には抽出した人物名や優先順位を入力したり変更したりする。ステップS152で追加あるいは変更しなかったならばステップS156に進み、追加あるいは変更入力されたならばステップS153に進む。
【0034】
ステップS151で特徴点とその特徴点情報とを登録していなかったならば、ステップS153に進む。ここでは抽出した特徴点や登録する特徴点情報をLCDモニタ109に表示する。ステップS154では表示されている特徴点や特徴点情報を登録するよう指示されたかどうか判断する。原則として、新たに検出された特徴点が既に登録されている特徴点と全く同一でない限り新規に抽出した特徴点はステップS155で特徴点と特徴点情報を記憶部1127に追加して記憶する。この記憶指示は例えば設定釦1164でLCDモニタ109の画面に表示されている登録実行表示を選択することで行うことが出来る(不図示)。これにより次第に人物の識別の精度が高くなる。抽出された特徴点が既に登録されていたり、ユーザにとって全く無関係の特徴点が抽出されていた場合などは新規に登録指示をしないのでステップS156に進む。ステップS156では同一画面内の他の特徴点についても登録を行うかどうか判別する。もしも他の特徴点が選択されたならばステップS151に戻ってこれまでと同様の手順で登録する。
【0035】
他の特徴点が選択されなかった場合にはステップS157に進んでデジタルカメラの動作モードを判別する。もし撮影モードに設定されていたならばこの登録のステップを終了する。被写体を変更したりして表示画面が変わった場合にはその都度この登録動作を行う。カメラの動作モードが再生モードだった場合にはステップS158に進む。ここでは今度は設定釦1164でカード記録実行表示が選択された(不図示)かどうか判別する。記録指示が選択された場合には変更あるいは新規に追加された特徴点あるいは特徴点情報を原画像に付加してメモリカードに記録する。もし選択されなかった場合には付加情報の更新は行わずに本登録のステップを終了する。
【0036】
《撮影画角設定》
図2ステップS110の撮影画角の設定について図5を使って説明する。これは例えば自分の子供のCちゃんをその運動会で撮影したいというような場合に好適な設定シーケンスである。まずステップS171では撮影したい人物(例えばCちゃん)を記憶部1127に記憶されている特徴点情報の中から人物の固有名情報に基づいて設定釦1164を使って選択し優先撮影人物として予め登録する。この優先撮影人物として登録された人物に対しては前述した特徴点に付加されている優先順位より優先する。ステップS172では撮影画面中に人物(主として顔)が抽出されたかどうか判別する。もし抽出されなかった場合にはステップS173に進んでCPU112はドライバ113を駆動してズームレンズを長焦点方向にズーミングアップしていく。このズーミングアップは手動であっても自動であっても良い。ステップS174ではズームレンズが最大ズーム位置に達したかどうか判別して達していなかったならばステップS172に戻って人物が抽出されるまでこれを繰り返す。ステップS174でズームレンズが最大焦点位置に達したならばステップS175に進みLCDモニタ109上に人物が検出されない旨の警告表示(不図示)して本画角設定のステップを終了する。撮影者が撮影方向を変えて撮影画面が変わったらステップS172からのステップを繰り返す。
【0037】
ステップS172で顔が検出されたならばステップS176で図15に示したように抽出した人物の顔にマーカを重畳表示する。この表示画面を見てユーザは予め設定した人物の顔が撮影画面内に入っているかどうかを確認する。もし入っていなかったならば画面を移動させて所望の人物を容易に画面内に捉えることが出来る。ステップS177では画面内の設定した人物が所定の大きさ以上かどうか判別する。もし所定の大きさ以上だった場合には本ステップを終了し、所定の大きさ以下だった場合にはステップS178に進む。ステップS178ではCPU112はズームレンズを自動的にズーミングアップしていく。このとき前述したVRレンズも同時にドライバ113で駆動して抽出した被写体の重心が画面中央近傍から外れないようにする。
【0038】
ステップS179では設定した人物の顔の大きさが所定の大きさ以上になったかどうか判別する。もし所定の大きさ以上でなかったならばステップS177に戻りズームレンズとVRレンズの駆動を継続する。ステップS180で最大ズーム位置に達したならばステップS181に進んで警告する。この警告はLCDモニタ109上に警告表示する(不図示)とともにブザー123でも音声で警告して本シーケンスを終了する。ステップS179で所望の人物の顔の大きさが所定の大きさ以上になった場合には本シーケンスを終了する。ここで所定の大きさについては例えば全画面の約10%というように予めその大きさを設定釦1164を用いて設定しておく。また、ステップS178でズーミングアップすることはせずに単に所望の人物の顔をVRレンズで画面中央部に移動させるだけに止めておいても良い。こうすることでユーザは中心にある所望の被写体を手動で自分の好みの大きさに手動でズーミングアップすることが出来る。この様にして、運動会、演奏会、発表会等の大勢の子供がいる中から自分の子供を確実に見つけて記録することが出来る。また、ここまでの説明では顔が小さかった場合について自動的にズーミングアップするようにしていたがこの逆に顔が大きすぎた場合に所定の顔の大きさになるように自動的にズームダウンするようにしても良い。同様に、ステップS174で最大ズーム位置になった後ユーザによって画面が変えられたならば顔が抽出されるまで今度は逆にズームダウンするようにしても良い。これらの場合のシーケンスもズームアップする場合とほぼ同様であるので説明は省略する。
【0039】
《撮影条件の設定》
図2ステップS111の撮影条件の設定について図6〜図8を使って説明する。図6は複数被写体が抽出されたときにそれぞれの被写体までの距離に応じて絞り値を変えて最適な焦点深度を設定するフローである。ステップS201で人物の顔の輪郭あるいは眼が検出されたかどうか判別する。どちらも検出されなかった場合にはステップS208に進み、風景等の遠景撮影であると判断してステップS208に進んで絞り値を大きく設定して焦点深度を深くする。ステップS201で顔の輪郭あるいは眼が検出された場合にはステップS202に進む。ステップS202ではそのときのズームレンズ位置(焦点距離)を検出器121で検出し、記憶部1127に記憶する。ステップS203では前述したように抽出された顔の輪郭の大きさあるいは眼幅と記憶部1127に記憶されたズームレンズ位置とから被写体までの距離を演算して記憶部1127に記憶する。ステップS204では撮影画面内の全ての人物に対して距離演算が終了したか判別する。もし終了していなかったならばステップS203に戻ってそれぞれの人物に対して距離演算して記憶部1127に記憶する。
【0040】
抽出した全ての人物に対して距離演算が終了したならばステップS205に進み抽出した人物の数を判別する。ステップS205で人物の数が所定値以上であると判別されたならば集合写真と判断してステップS208に進んで焦点深度を深くして全ての人物に対して焦点が合うように絞り値を大きく設定する。具体的には、ステップS203で検出された各人物までの距離に基づいて全ての人物に対して焦点が合うための最適の焦点深度を求め、それに相当する絞り値を設定する。ステップS205で人物の数が所定値以下であると判別されたならば、ステップS206に進んでここでそれぞれの顔の大きさを判別する。もし顔の大きさが所定の大きさ以上であると判別されたならばステップS207に進み、ポートレート撮影と判断して絞り値を小さくすることで焦点深度を浅く設定する。ステップS206で顔の大きさが所定の大きさ以下であると判断されたならば風景を含めた記念写真と判断してステップS208に進み絞り値を大きくして焦点深度を深くする。ここで所定の人数とは3ないし4名程度に予め設定する。
【0041】
この様にすることにより、ユーザが撮影モードを予め風景撮影用のモードに設定していた場合に撮影画面内に人物が検出されたならば自動的に人物撮影に適した深度の浅いポートレート撮影用のモードで撮影することが出来る。逆にポートレート撮影用のモードに設定していたときに人物が検出されなかったならば自動的に深度の深い風景撮影用のモードに変更して撮影することが出来る。なお、ここで説明した被写体までの距離の演算方法において、顔の大きさや眼幅は大人や子供で異なり大人同士、子供同士であっても個人差がある。それ故、あくまでも大人あるいは子供の平均の顔の大きさ、眼幅から求めたおおよその距離である。正確な合焦位置は前述したコントラスト法によるピーク位置に基づいて決定される。
【0042】
次に図7、図16、図17、図18を使用してAFエリアあるいはAEエリアの設定について説明する。図7においてはAFエリアの設定ということで説明しているがAEエリアの設定についても全く同様である。図7ステップS221においてまず撮影画面内の所定の範囲内に人物がいるかどうか判別する。人物の有無の判別方法としてはここでは顔の輪郭が抽出されたかどうかで判別するものとする。もし人物がいなかったならばステップS222に進んで予め設定された中央部等の固定のエリアをAFエリアとする。これは、もしも人物が抽出されたとしてもその人物が画面の隅の方にいた場合には撮影者は人物に重点を置いて撮影しようとしてはいないと判断し、これを排除するためである。図16にこの場合の撮影画面例を示す。図において太い波線でマーカ表示されている人物は画面内の細い波線で示す範囲外にいるのでその場合には予め設定された画面中央の太い実線枠内をAFエリアに設定する。多点測距可能な場合にはこのAFエリアは画面中央以外にも設定可能である。
【0043】
ステップS221で画面所定範囲内に人物が抽出された場合にはステップS223に進み、抽出された人物の顔の数が複数かどうか判別する。複数でなかった場合にはステップS228に進み、複数だった場合にはステップS224に進む。ステップS224では抽出された顔のうち最大の顔を選択してそこをAFエリアとして設定しAFエリアであるという表示をする。図17にこの場合の撮影画面の表示例を示す。ここでは抽出された実線で表示されている最大顔部分がAFエリアとして設定されていることを示している。ステップS225では自動的に設定されたAFエリア以外の人物位置をAFエリアに設定するかどうか判別する。もし撮影者が設定釦1164を操作して波線で表示されている他の人物のいずれかを選択したならばその操作に従ってAFエリアを順に移動させる。この場合の選択の順番としては、もし前述した優先順が記憶されている人物であったならばその優先順に従って選択されるがそれ以外に抽出された顔の大きさの順に選択されるようにしても良い。ステップS227で選択が終了したならばステップS228に進み抽出された顔の面積の大きさが第1の所定値以上かどうか判別する。もし第1の所定値以下だった場合にはステップS229に進んで抽出した顔を内側に含む所定の大きさ(例えば第1の所定値)にAFエリアを設定する。これは抽出された顔の面積が小さすぎる場合には前述したAF演算の際の精度が悪くなるからである。図18にこの場合の表示例を示す。
【0044】
ステップS228で抽出された顔の面積が第1の所定値以上だった場合にはステップS230に進んでここで更に第2の所定値以上かどうか判別する。もし第2の所定値以上だった場合にはポートレート撮影であると判断してステップS231に進んで顔全体をAFエリアに設定するのでなく更に抽出した目の位置をAFエリアに設定する。図19にこの場合の表示例を示す。第2の所定値以下だった場合にはステップS232に進み、先に抽出された顔の面積をAFエリアに設定する。ここで第1および第2の所定値とは各種被写体を撮影した上で予め最適の値が設定されている。
【0045】
ここまでの説明においてステップS224では最大の顔を初めに選択するようにしたがこれを前述した登録の優先順位の最も高い人物あるいは撮影画角設定の項で説明した優先撮影人物を初めに表示するようにしても良い。あるいは顔の抽出と同時にその人物までの距離を計算して最短距離にいる人物から順に選択するようにしても良い。また、前述した優先撮影人物に対してはその演算された距離に基づいてフォーカスレンズの移動範囲を演算距離の前後の所定範囲のみ移動可能なように制限してやることで、人物に対するAF動作を背景の影響を受けにくくすることが可能となる。更にこの優先撮影人物に対してAF追従動作が確実かつ高速になる。そのほか、スポーツ撮影等で連写撮影モードに設定されている場合には、一コマ目の撮影はコントラスト法による評価値ピークに基づいて撮影距離を決定し、2コマ目以降の撮影の場合には前回撮影したときとの人物や顔の輪郭あるいは眼幅の前のコマとの差(変化量)を検出してそのときのズームレンズ位置とあわせて被写体までの距離を演算することも容易に可能である。こうすることで高速に被写体変動に追従することが可能なAF制御を実現することが出来る。
【0046】
ここまでのAFエリアの設定のシーケンスは前述したようにAEエリアの設定においても全く同様に適用することが出来る。もちろんこの場合においても前述した第1の所定値および第2の所定値はAFエリアの時と同様に実験で予め最適値が決定される。
【0047】
次に図8に基づいて撮影モードの変更について説明する。ステップS241で撮影モードが人物を撮影するに適した人物撮影モードに設定されているかどうか判別する。この人物撮影モードにおいては1例として背景をぼかすために絞りは開放に近い値に設定し、ホワイトバランスは肌色を重視した設定にし、測距モードはAFモードに設定される。もし人物撮影モードに設定されていたならばステップS242に進み、ここでは人物が抽出されたかどうか判別する。もし抽出されなかったならばステップS243に進み、ブザーやモニタ等で警告するとともにステップS244で遠景撮影に適した風景撮影用モードに変更して本シーケンスを終了する。この風景撮影用のモードの場合には焦点深度を深くするために絞りは大きな値に設定され、測距モードは焦点深度に応じて無限位置まで合焦する固定位置にフォーカスレンズを駆動する。ホワイトバランスは通常撮影時に使用される設定にするかあるいは昼間の撮影であったならば木の緑や青空を重視した設定にする。ステップS242で人物が検出された場合には本ステップは終了する。ステップS241で人物撮影モードに設定されていなかった場合にはステップS245に進んでここで人物が検出されたかどうか判別する。もし検出されなかった場合には本シーケンスを終了し、検出されたならばステップS246に進んでブザーやモニタで警告するとともに、ステップS247で人物撮影用のモードに変更し本シーケンスを終了する。
【0048】
《ストロボの設定》
図9を用いてストロボの発光量を設定する方法について説明する。ステップS251では所定のAEエリア内の被写体に対してAE演算回路1121で測定した被写体輝度が所定値より大きいかどうか判別する。ここで被写体とは人物に限定されない。もし被写体輝度が所定値より小さい暗い被写体だった場合にはステップS261に進み、所定値より大きくて被写体が明るかった場合にはステップS252に進む。ステップS252では撮影画面中に人物が抽出されたかどうか判別する。ここでも人物としては顔の輪郭が抽出されたかどうかで判別する。もし顔の輪郭が抽出されなかった場合にはステップS253に進んでストロボを非発光に設定する。この非発光設定に基づいて撮影時にはCPU112はストロボを非発光にするよう制御する。これにより実際の撮影時にはAE演算部1121の演算結果に基づいたシャッタスピードと絞り値とで被写体が露光される。
【0049】
ステップS252で顔の輪郭が抽出された場合にはステップS254に進んで抽出された人物の顔部分の明るさを測定する。ステップS255では測定された顔部分の明るさが所定値より明るかったならばステップS253に進み、暗かったならばステップS256に進む。ステップS256では前述した図6ステップS203の場合と同様に検出した顔の大きさあるいは眼幅とそのときのズームレンズ位置に基づいて抽出した人物までの距離を演算する。ステップS257では人物までの距離がストロボの適正露光可能範囲内であるかどうか判別する。もし適正露光可能範囲内であったならばステップS258に進み撮影前に赤目軽減のためのプリ発光をするように設定し、ステップS259で抽出した人物の顔が適正露光となるように演算した距離を基にストロボの発光量を設定する。
【0050】
これにより、CPU112は実際の撮影時に、AE演算部1121によって演算されたシャッタスピードと絞り値とに設定するよう制御する。これにより人物を除いた画面全体が適正露光状態で撮影される。一方、周辺より暗い状態になっている人物に対しては距離に基づいて設定された発光光量でストロボを発光するよう制御する。これにより人物に対しても適正な露光状態で撮影することが出来る。この機能は逆光撮影時に特に効果的である。ストロボ本発光の前にはステップS258の設定に基づいて赤目軽減用のプリ発光をするようCPU112が制御する。このプリ発光は複数回行うようにしても良い。ステップS257で適正露光可能範囲外であった場合にはステップS259に進んで人物が適正露光しない旨警告表示する(不図示)。
【0051】
ステップS251で被写体が暗かった場合にはステップS261に進んでここでも撮影画面中に人物としての顔の輪郭が抽出されたかどうか判別する。もし顔の輪郭が抽出された場合にはステップS262に進んでステップS256の場合と同様に抽出された人物までの距離を演算する。ステップS263では人物までの距離がストロボの適正露光可能範囲内であるかどうか判別する。もし適正露光可能範囲外だった場合にはステップS260に進み人物が適正露光外である旨の警告表示する。適正露光可能範囲内だった場合にはステップS264に進み撮影前にストロボをプリ発光するように設定する。このプリ発光の役割はここではステップS258で述べた赤目軽減用以外に更に、プリ発光による人物からの反射光に基づいて実際の撮影時のストロボ発光量を決定するためのものである。ステップS265ではプリ発光の際の顔部分からの反射光に基づいて撮影時のストロボの発光量を決定するように設定する。ここでも前と場合と同様、プリ発光は複数回行っても良く、更に赤目軽減用プリ発光と反射光測定用プリ発光とで分けても良い。ステップS260で人物が抽出されなかった場合にはステップS266に進んで被写体輝度をAE演算した結果に基づいてストロボの発光光量を設定する。ステップS258やステップS264で赤目軽減用にストロボをプリ発光するよう設定する代わりに撮影後に撮影した瞳を検出して赤目部分をソフト的に補正する設定にしても良い。
【0052】
《撮影》
図10、図11、図20、図21を使用して通常とは異なる2種類の撮影方法のシーケンスについて説明する。図10は全押しSW1163を1回押すと自動的にAFエリアから得られる焦点評価値の複数のピーク位置でそれぞれ撮影する様に構成されたシーケンスである。これにより各ピーク位置に対応した被写体毎に合焦した複数の画像データを得ることができる。ステップS301で半押しSW1162がオンされたことを検出するとステップS302でCPU112はフォーカスレンズを至近から無限まで移動させ評価値を演算し評価値のピークを検出する。ステップS303ではピークが複数あるかどうか判別する。もしピークが一つしかない場合にはステップS306に進み、ピークが複数検出された場合にはステップS304に進む。ステップS304では特徴点抽出演算部1123によって人物が抽出されたかどうか判別する。ここで人物が抽出された場合にはこれまでと同様に抽出した眼幅とズームレンズ位置から抽出された人物迄の距離を演算してその演算して得られた人物までの距離が複数のピークのどれに対応するか判別する。ステップS305では最至近にいる人物位置を最初の撮影位置として選択しCPU112はフォーカスレンズを最至近人物位置を示しているピーク位置に駆動する。
【0053】
ステップS303でピーク位置が一つしかなかった場合にはステップS306で検出したピーク位置(この場合この位置が最至近ピーク位置となる)を選択する。ステップS304でピークが複数検出されて且つ人物が検出されなかった場合にもステップS306に進んで最至近位置を撮影位置として選択する。
【0054】
ステップS307では全押しSW1163がオンされたかどうか判別する。もしオンされていなかったならばステップS313に進み、オンされたならばステップS308に進む。ステップS308では前述したステップS305あるいはステップS306で選択されたピーク位置で露光し、露光終了後蓄積した画像データを読み出す。ステップS309では他の人物位置に相当するピーク位置の有無を判別する。もし他の人物位置に相当するピーク位置が有ったならばステップS308に戻ってその位置で2度目の露光をした後に蓄積した画像データを読み出す。他に人物位置に相当するピーク位置がなかったならばステップS311に進み最至近ピーク位置での露光が終了しているかどうか判別する。もし最至近ピーク位置での露光が終了していなかったならばステップS312に進み、最至近位置で引き続き露光する。最至近位置での露光が終了していたならば本シーケンスを終了する。ステップS307で全押しSW1163が押されていなかったならばステップS313に進む。ステップS313では半押しSW1162が押されているかどうか判別する。もし半押しSW1162が押されていたならばステップS307に戻り全押しSW1163が押されるまでフォーカスをロックする。ステップS313で半押しSW1162が押されていなかったなら本シーケンスを終了する。
【0055】
図20、21を使って実際の撮影例を説明する。図20は撮影画面内に人物とそれより手前に花が配置されていた場合である。通常のAF撮影では最至近優先で合焦するのでこの場合には手前の花に対してピントのあった画像が1枚だけ撮影される。図21はこの場合のフォーカスレンズ位置に対応した評価値変化を示している。ここでは画面全体をAFエリアとした場合の評価値変化を示している。この場合は焦点評価値に二つのピーク(P1、P2)が検出される。通常のAFではP1とP2の大きさには関係なく或る程度以上の大きさであったならば最至近のピークであるP2が選択される。この様に単に被写体のコントラストを検出しているだけではP1に相当する位置x1と、P2に相当する位置x2のどちらに人物がいるのか判定することが出来ない。これに対して人物の顔の大きさあるいは眼幅から人物までの距離を演算することによって位置x1が人物によるピークであると判断することが出来る。それ故、最至近位置x2と人物位置x1との都合2回撮影することでそれぞれにピントのあった画像データを得ることが出来る。あるいは人物ピーク位置でのみ撮影するようにして最至近ピークが人物以外のピークであった場合には撮影しないようにしても良い。この時、前述した撮影画角の設定の場合と同様、優先撮影人物を予めカメラに設定しておいてその人物に対応するピークで1回だけ撮影するようにしても良い。
【0056】
これによりたとえ複数の人物がAEエリア内にいたとしても確実に所望の人物に対してピントが合った画像を得ることが出来る。人物が複数いた場合には全ての人物について撮影するのでなく、一定の評価値以上のピークに対応する人物位置で撮影するようにしても良い。あるいは最大連続撮影枚数を設定できるようにしても良い。前述したように特徴点を基に演算した特徴点までの距離は正確な距離ではないのでこのようにコントラスト法において複数ピークがあった場合などに補助的に人物位置ピークを判定するのに使用することで正確に合焦させることが出来る。
【0057】
次に図11を基に目を閉じた状態で撮影されることを防ぐ方法について説明する。ステップS321で全押しSW1163が押されたならばステップS322で全押しスイッチが押される前の画像データから特徴点抽出演算部1123により被写体の瞳を検出する。ここで被写体が目を閉じていて瞳が検出されないと判断されたならばステップS323で被写体の瞳が検出されるまで実際の露光を遅延させステップS322に戻る。瞳が検出されたならばステップS324で実際に露光を行い、ステップS325で露光した画像データを読み出す。ステップS326では読み出した画像データから直ちに特徴点抽出演算部1123で瞳を再度検出する。この時瞳が検出されなかったならばステップS327でブザー123でもって警告しステップS322に戻って瞳が検出されたことを確認して直ちに再露光する。ステップS326で瞳が検出されたならば本シーケンスを終了する。このように撮影前に被写体が目を開けていることを確認するとともに、撮影後も目を閉じて撮影されてしまったかどうかを直ちに確認している。これによりもし目を閉じて撮影された場合には直ちに再度撮影することが出来る。あるいは再度撮影する変わりに目を閉じて撮影された場合には撮影後にその部分のみソフト的に補正してやっても良い。補正方法としては撮影後にモニタで被写体の動画を撮影していた際の被写体の開いている目を抽出してこれを閉じている目と置き換えてやればよい。
【0058】
この図11の説明では撮影後に目を閉じていたことを検出して再撮影するようにしていたが、ほかにも撮影した被写体の不具合を検出して再度撮影することで最良の画像を得るようにすることが出来る。例えば、撮影時に被写体が動いてしまった場合には再生画像からブレを検出することで判別することが出来る。あるいは、集合写真で顔が隠れてしまったりした場合には撮影前の顔の数と撮影後の顔の数とを比較したり、あるいは顔の輪郭の抽出が不充分であるような場合にも再度撮影するように設定することも可能である。さらにステップS327の警告においてもブザーでもって警告するだけでなく音声で例えば“目を閉じて撮影されました。”、“ブレて撮影されました。”、“顔が隠れている人がいます。”等具体的に不具合を警告するようにしても良い。
【0059】
《記録処理》
図12を基に特徴点抽出に伴う記録時の処理について説明する。ステップS401ではまず特徴点抽出演算部1123によって人物の顔の輪郭が抽出されたかどうか判別する。もし抽出されなかったならば予め設定されている色再現用あるいは輪郭強調用パラメータを使用した記録処理を行う。抽出されたならばステップS402に進んで抽出された顔の数を判別する。顔の数が所定値以下だったならばステップS406に進み、所定値以上だったならばステップS403に進む。ここで所定値とは3〜4程度の値が適している。顔の数が3〜4個よりも多く抽出された場合には集合写真を撮影していると判断してステップS403でデジタル信号処理回路106において色再現用のパラメータを肌色を重視したパラメータを使用するようにする。ステップS404では更に、顔の特定部位を検出しステップS405で特定部位近傍以外の顔の部分の輪郭強調を弱めるように処理する。特定部位とは例えば眼、鼻、口、耳、髪、眉毛等である。これによりこれら特定部位近傍以外の部分では周波数特性にローパスフィルタがかけられるので頬や額等にあるしわ、ほくろ、シミ等を目立たなくすることが出来る。ステップS402で顔の数が所定値以下だった場合にはステップS406に進んで顔の大きさを判別する。もし顔が複数検出されていたなら最大の大きさの顔で判別する。顔の面積が所定値より大きかった場合にはポートレート撮影と判断して肌色を重視した処理を行うステップS403に進む。顔の面積が所定値より小さかったならば風景を含めた記念撮影と判断し、通常の記録処理を行う。
【0060】
この様にステップS403では顔部分に対してのみ肌色重視処理をしているのでなく、画像データ全体に対して通常の色パラメータの代わりに肌色を重視したパラメータを選択して処理を施している。これは肌色以外の部分においてはこの様に肌色を重視したパラメータを採用した処理を施したとしても、元もと肌色成分が少ないので肌色重視処置をした際の影響が少ないからである。これによりわざわざ顔部分を抜き出してそこに対してのみ肌色重視処理するといった複雑な処理が不要となる。
【0061】
ここまでの説明において、ステップS405で施した処理とは逆に抽出された眼、鼻、口、耳、髪、眉毛およびその近傍部分に対して輪郭強調を強めに施すことによりくっきりとした顔を表現することもできる。また、あまり小さな顔に対して輪郭強調を施しても効果は小さいので或る程度大きな顔に対してのみ輪郭強調を施すようにしても良い。またこれらステップS403の肌色処理とステップS405の輪郭強調処理は何れかのみを選択可能としても良い。この肌色処理あるいは輪郭強調処理のパラメータをそれぞれ複数備えていて、これらから適宜選択をして肌色の程度あるいは輪郭強調の程度を最良の状態とすることも容易である。これ以外にも、年齢や男女の性別を判断して老人や女性の場合には色相以外に彩度や輝度を上げるためのパラメータを選択するようにしてもよい。あるいは、特定の人種に最適な色バランスをそのまま他の人種に適用すると不自然な肌色が再生されてしまうので人種に応じて肌の色を緩和するような色パラメータを選択するのも効果的である。このためには、顔や手足、耳、鼻等の骨格形状、瞳や顔の色、唇形状、着衣、髪型等から判断して人種を判別すれば良い。更に、ここまでの説明においてはこれらの処理を記録前に行うようにしていたが、これを再生時に行っても良い。すなわち、図14で説明した画像ファイルに、前述した特徴点情報と特徴点データ以外に各個人毎の特有の情報やホワイトバランス処理情報や輪郭強調処理情報も同時に記録しておくことで再生時に最適な処理を施すことが出来る。
【図面の簡単な説明】
【図1】本発明によるデジタルカメラの構成を示すブロック図である。
【図2】本発明によるデジタルカメラの動作シーケンスを説明するフローチャートである。
【図3】本発明によるデジタルカメラの動作シーケンスを説明するフローチャートである。
【図4】特徴点情報を登録する時のシーケンスを説明するフローチャートである。
【図5】撮影画角を設定する時のシーケンスを説明するフローチャートである。
【図6】撮影条件を設定する時のシーケンスを説明するフローチャートである。
【図7】他の撮影条件を設定する時のシーケンスを説明するフローチャートである。
【図8】他の撮影条件を設定する時のシーケンスを説明するフローチャートである。
【図9】ストロボの発光量を設定する時のシーケンスを説明するフローチャートである。
【図10】撮影シーケンスを説明するフローチャートである。
【図11】他の撮影シーケンスを説明するフローチャートである。
【図12】記録処理シーケンスを説明するフローチャートである。
【図13】特徴点と特徴点情報の記録状態を説明する図である。
【図14】画像データとそこに付加されている特徴点情報の記録状態を説明する図である。
【図15】抽出した特徴点に対してそれぞれ区別してマーカ表示している表示例である。
【図16】AFエリアあるいはAEエリアの設定を示す表示例である。
【図17】AFエリアあるいはAEエリアの他の設定を示す表示例である。
【図18】AFエリアあるいはAEエリアの他の設定を示す表示例である。
【図19】AFエリアあるいはAEエリアの他の設定を示す表示例である。
【図20】AFエリアの設定を示す表示例である。
【図21】図20の被写体の位置関係を説明する図である。
【図22】レンズの焦点距離と眼幅から人物までの距離を求める説明図である。
【符号の説明】
101 撮影レンズ
102 絞り
103 撮像素子
104 アナログ信号処理部
105 バッファメモリ
106 デジタル信号処理部
108 D/Aコンバータ
109 LCDモニタ
110 記録・再生信号処理部
111 外部記憶媒体
112 CPU
113 レンズ駆動部
114 絞り駆動部
115 撮像素子駆動部
116 操作部材
120 インタフェース
121 レンズ位置検出部
122 ストロボ
123 発音体
135 A/Dコンバータ
1121 AE演算部
1122 AWB演算部
1124 バンドパスフィルタ
1125 加算部
1126 AF演算部
1127 記憶部
1161 電源スイッチ
1162 半押しスイッチ
1163 全押しスイッチ
1164 設定釦
1165 アップ/ダウン釦
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a digital camera that identifies feature points of a person and operates according to the identification result.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there are many known techniques for identifying a person from image data, including a system for authenticating a person by registering feature points of a fingerprint or an iris in advance and collating the feature points with the feature points. Japanese Patent Application Laid-Open No. 9-251534 describes in detail a method of extracting eyes, nose, mouth, and the like, registering the points as feature points, and comparing the extracted points with feature points extracted from an input image to identify the person. Japanese Patent Laid-Open Publication No. Hei 10-232934 discloses a method of increasing the accuracy of a dictionary image when registering feature points extracted in this manner. Examples of applying these technologies to cameras are described below.
[0003]
Japanese Patent Application Laid-Open No. 2001-201779 registers a user of a camera as reference information in advance, and sets a camera only when the camera user points the camera at his / her face and matches the identification information input. A camera that enables operation is disclosed. Japanese Patent Application Laid-Open No. 2001-309225 discloses a camera in which data such as face coordinates, dimensions, eye positions, and head poses recognized by a face recognition algorithm are recorded in an image memory together with image data. Japanese Patent Application Laid-Open No. 2001-326841 discloses an image pickup apparatus (digital camera) in which identification information (face, fingerprint, palm print) for identifying an authorized user is stored in advance. Japanese Patent Laying-Open No. 2002-232761 discloses an image recording apparatus that records a photographed image in association with a previously read subject identification information. Japanese Patent Application Laid-Open No. 2002-333652 discloses an image capturing apparatus that compares previously stored face information and captured face information to generate a recording signal. This appearance information is recorded together with the priority.
[0004]
[Problems to be solved by the invention]
In the present invention, a method of easily selecting a desired feature point after extracting and displaying the feature points, which has not been achieved in the above-described inventions, and reliably recording information on the selected feature points. It is an object to provide a digital camera capable of performing such operations.
[0005]
[Means to solve the problem]
In order to solve the above-mentioned problems, the invention according to claim 1 includes an extracting unit that extracts a predetermined characteristic part from image data, a receiving unit that receives an instruction from a user, and a receiving unit that receives an instruction from a user. Selecting means for selecting each characteristic part in a predetermined order according to the instruction received by the receiving means, and display means for displaying characteristic part information for specifying the characteristic part selected by the selecting means. Features. Thus, the user can easily specify and select a desired person or the like. In the invention according to claim 2, the display means displays the characteristic portion information so as to be superimposed on the image data. In the invention according to claim 3, further, a face is extracted from the characteristic portion extracted by the extraction means. Determining means for determining the size, wherein the selecting means selects the face in the descending order of the face determined by the determining means; and in the invention according to claim 4, furthermore, the distance to the characteristic portion extracted by the extracting means is further determined. A discriminating means for discriminating is provided, and the selecting means selects the object in the order of shortest distance determined by the discriminating means, so that a desired subject can be easily selected. The invention according to claim 5 further comprises a focus area setting means for setting a predetermined area including the characteristic portion extracted by the extraction means as a focus area for detecting focus, and the invention according to claim 6 further comprises And a photometric area setting means for setting a predetermined area including the characteristic portion extracted by the extracting means as a photometric area.
[0006]
The invention according to claim 7, wherein extraction means for extracting a predetermined characteristic part from image data, display means for displaying the characteristic part extracted by the extraction means, and information on the characteristic part displayed by the display means Receiving means for receiving the characteristic part and storage means for storing the characteristic part and information on the characteristic part. That is, the input information regarding the characteristic part is stored in the storage medium together with the characteristic part. The invention according to claim 8, wherein extraction means for extracting a predetermined characteristic part from the image data, display means for displaying the characteristic part extracted by the extraction means, and information on the characteristic part displayed by the display means Input means for inputting, the instructing means for instructing the characteristic part and the information on the characteristic part to be recorded in association with the image data, and information on the characteristic part and the characteristic part associated by the instruction means. Storage means for storing the image data. That is, the input information on the characteristic part is stored in a storage medium such as a memory card in association with the image data extracted together with the characteristic part, so that it is effective when searching later based on the information on the characteristic part.
[0007]
According to the ninth aspect of the present invention, the information relating to the characteristic part is unique name information such as a personal name relating to the characteristic part. According to the tenth aspect, the information relating to the characteristic part includes a plurality of characteristic parts. The priority information defining the priority of selection when extracted at the same time. The invention according to claim 11, further comprising: identification means for identifying the priority information; and priority information based on the priority identified by the identification means. And selecting means for selecting in order. In a twelfth aspect of the present invention, the image processing apparatus further includes a distance measurement area setting means for setting a distance measurement area for measuring a distance to a predetermined subject displayed on the display means. 14. The priority order when the distance measurement area setting means sets a distance measurement area from among a plurality of characteristic parts. In the invention according to claim 13, the brightness of a predetermined subject displayed on the display means is further determined. The photometric area setting means for setting a photometric area for measuring the distance. The priority information is a priority when the photometric area setting means sets a photometric area from among the plurality of characteristic parts.
[0008]
According to the invention of claim 14, the information on the characteristic portion is at least one of color processing information or contour correction processing information when recording image data including the characteristic portion. The information on the characteristic part is at least one of color processing information and contour correction processing information when reproducing image data including the characteristic part. Further, in the invention according to claim 16, furthermore, if at least one of the characteristic portion displayed on the display means and the information on the characteristic portion has been recorded in the recording means, the identification indication indicates that the characteristic portion has been recorded. In the invention according to the seventeenth aspect, the information on the characteristic part is position information in the image data when the characteristic part is extracted from the image data.
[0009]
The invention according to claim 18, wherein a storage means for storing a first characteristic part and first unique name information relating to the first characteristic part, an extracting means for extracting a predetermined characteristic part from image data, Input means for inputting second unique name information relating to the second characteristic part extracted by the extracting means, wherein the first unique name information and the second unique name information are the same, and Storage means for additionally storing the second characteristic part in the storage means when the characteristic part is different from the first characteristic part. That is, when the extracted characteristic part is the same as the unique name information such as the personal name stored in the storage means in advance, and the characteristic part is newly added and stored, the characteristic part is gradually added. Accuracy in discriminating a person can be improved.
[0010]
According to a nineteenth aspect of the present invention, the first storage means in which a first characteristic part and unique name information relating to the first characteristic part are stored, and wherein a second characteristic part and the unique name information are image data. A second storage unit which is stored in association with the first storage unit, wherein the second characteristic unit is added to the first storage unit when the second characteristic unit is different from the first characteristic unit. Storage means. That is, a person is gradually discriminated by adding and storing, in a built-in memory, a characteristic part relating to the same unique name information from a memory card in which image data and characteristic parts and personal name information such as personal name information relating thereto are recorded in advance. The accuracy at the time of performing can be improved.
[0011]
The invention according to claim 20, wherein a first storage means in which a first characteristic part and unique name information relating to the first characteristic part are stored, and wherein a second characteristic part point and the unique name information are image data. A second storage unit that is stored in association with the first storage unit, and the first storage unit is added to the second storage unit when the first storage unit is different from the second storage unit. Instruction means for instructing the user to perform the operation. That is, in this case, on the contrary, the characteristic part relating to the same unique name information is added to the memory card from the built-in memory in which the image data and the characteristic part and the unique name information such as the personal name information are recorded in advance. Since the characteristic parts not recorded in the memory card are additionally recorded, the number of characteristic parts relating to the person can be gradually increased even in the memory card.
[0012]
The invention according to claim 21 is a display unit for displaying image data, an extracting unit for extracting a predetermined characteristic part from the image data, a storage unit for storing a plurality of characteristic parts in advance, Determining means for determining whether the determined characteristic part matches any one of the plurality of characteristic parts stored in the storage means, and identification display means for identifying and displaying the determination result determined by the determining means on the display means. It is characterized by having. That is, it is possible to immediately determine whether or not the extracted characteristic portion is already stored. In the invention according to claim 22, the storage means further stores at least one piece of information of unique name information on the characteristic part or priority information which sets a selection priority when a plurality of characteristic parts are extracted at the same time. The identification display means displays, on the display means, information stored in the storage means relating to a characteristic portion of the feature point determined by the determination means to be coincident.
[0013]
The invention according to claim 23 is characterized by comprising extraction means for extracting a feature point of a predetermined subject from image data, and management means for managing the extracted characteristic part in association with the image data. This makes it possible to simultaneously record the image data and the characteristic portions extracted therefrom.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating major functions of the digital camera of the present invention.
[0015]
The photographing lens 101 includes a zoom lens for continuously changing its focal length, a focusing lens for adjusting focus, and a VR (Vibration Reduction) lens for correcting camera shake during photographing. These lenses are driven by a driver 113. Here, the driver 113 includes a zoom drive mechanism of the zoom lens and its drive circuit, a focus drive mechanism of the focusing lens and its drive circuit, and a VR lens drive mechanism and its drive circuit, and is controlled by the CPU 112, respectively. The detector 121 detects the position of the focusing lens and the position of the zoom lens, and notifies the CPU 112 of the respective lens positions.
[0016]
The taking lens 101 forms a subject image on the imaging surface of the imaging device 103. The imaging device 103 is a photoelectric conversion imaging device that outputs an electric signal corresponding to the light intensity of the subject image formed on the imaging surface, and a CCD or MOS solid-state imaging device is used. The image sensor 103 is driven by a driver 115 that controls the timing of signal extraction. An aperture 102 is provided between the taking lens 101 and the image sensor 103. The aperture 102 is driven by a driver 114 having an aperture mechanism and a drive circuit for the aperture mechanism. An imaging signal from the solid-state imaging device 103 is input to an analog signal processing circuit 104, and the analog signal processing circuit 104 performs processing such as correlated double sampling processing (CDS). The image signal processed by the analog signal processing circuit 104 is converted from an analog signal to a digital signal by the A / D converter 135.
[0017]
The A / D-converted signal is subjected to various image processing such as contour enhancement and gamma correction in a digital signal processing circuit 106. A plurality of contour emphasis parameters are prepared in advance, and an optimum parameter is selected according to image data. The digital signal processing circuit 106 also includes a luminance / color difference signal generation circuit for performing processing for recording and the like, and a plurality of parameters for generating these are prepared in advance. From the plurality of color conversion parameters, an optimum parameter is selected to obtain the best color reproduction according to the captured image. A plurality of parameters for contour enhancement and color reproduction are stored in a storage unit 1127 described later, and the CPU 112 selects an optimum parameter therefrom. The buffer memory 105 is a frame memory capable of storing data for a plurality of frames captured by the image sensor 103, and the A / D-converted signal is temporarily stored in the buffer memory 105. The digital signal processing circuit 106 reads the data stored in the buffer memory 105 and performs each processing described above, and the processed data is stored in the buffer memory 105 again. The CPU 112 is connected to the digital signal processing circuit 106, the drivers 113 to 115, and performs sequence control of a camera photographing operation. The AE calculation unit 1121 of the CPU 112 performs an automatic exposure calculation based on the image signal from the image sensor, and the AWB calculation unit 1122 performs a calculation for setting a white balance parameter. The feature point extraction calculation unit 1123 stores the feature points such as the shape, position, and size of the person from the image data in the storage unit 1127 in accordance with a predetermined algorithm, and detects the size of the detected face and eye width and the like at that time. The approximate distance to each person extracted from the focal length of the zoom lens detected by the detector 121 is also calculated and stored in the storage unit 1127 together with the date and time of extraction. Here, this distance calculation method will be described with reference to FIG. FIG. 22 shows a case where the distance to the person is calculated based on the extracted eye width. A is the average of the actual eye width of a general adult, a is the eye width formed on the extracted image sensor, L is the distance from the imaging lens to the person, and f is the focal length of the lens. From this figure, the following proportional equation is easily derived.
[0018]
A / L = a / f
From this, the distance L to the person is L = (A / a) · f. The storage unit 1127 temporarily stores the feature points extracted in this manner and the distances to the feature points calculated based on the feature points. The user selects and registers a feature point to be left from those stored feature points. Details of the registration and the registration method will be described later in detail with reference to FIG.
[0019]
The band-pass filter (BPF) 1124 extracts a high-frequency component in a predetermined band based on an image signal in a focus detection area provided in an image area. The output of the BPF 1124 is input to the next evaluation value calculator 1125, where the absolute value of the high frequency component is integrated and calculated as a focus evaluation value. The AF calculation unit 1126 performs an AF calculation by a contrast method based on these focus evaluation values. The CPU 112 adjusts the focusing lens of the photographing lens 101 using the calculation result of the AF calculation unit 1126 to perform a focusing operation.
[0020]
An operation unit 116 connected to the CPU 112 includes a power switch 1161 for turning on / off the power of the camera, a half-press switch 1162 and a full-press switch 1163 for turning on / off in conjunction with a release button, and various kinds of contents of a shooting mode. A setting button 1164, an up / down (U / D) button 1165 for updating a reproduced image and the like are provided. With the setting button 1164, it is also possible to select and set alphabets, hiragana, katakana, simple kanji, etc. by using the U / D button 1165 together to name the extracted feature points. The U / D button 1165 is also used for selecting a desired person from a plurality of extracted persons, and for manually driving the zoom lens to the telephoto or wide-angle side during photographing.
[0021]
When the subject luminance is low, the strobe 122 is caused to emit light. The pre-flash which emits auxiliary light before shooting to prevent or reduce red-eye of the person's pupil photographed when using the strobe to prevent or reduce red-eye and to measure the subject brightness at low brightness It also has functions. Reference numeral 123 denotes a sounding body such as a buzzer for giving a voice alert when any abnormality occurs in the camera. In addition to the above-mentioned feature point information, the storage unit 1127 also stores the peak value of the evaluation value detected from the result of the AF calculation, the corresponding lens position, and the like. The image data that has been subjected to various processes by the digital signal processing circuit 106 is temporarily stored in the buffer memory 105, and then is recorded on an external storage medium 111 such as a memory card via the recording / reproduction signal processing circuit 110. When recording image data on the storage medium 111, data compression is generally performed in a predetermined compression format, for example, the JPEG method. The recording / playback signal processing circuit 110 performs data compression when recording image data on the external storage medium 111 and decompression processing of compressed image data transferred from the external storage medium 111 or another camera. Reference numeral 121 denotes an interface circuit that performs data communication by wirelessly or wiredly connecting to another external device such as a digital camera. A plurality of these interfaces may be provided at the same time.
[0022]
The monitor 109 is a liquid crystal (LCD) display device for displaying various setting menus when displaying a captured subject image, photographing, or reproducing. Here, it is also used when reproducing and displaying image data recorded in the storage medium 111 or image data transferred from another camera. When displaying an image on the monitor 109, the image data stored in the buffer memory 105 is read, and the digital image data is converted into an analog video signal by the D / A converter 108. Then, an image is displayed on the monitor 109 using the analog video signal.
[0023]
The contrast method of the AF control method used in this camera will be described. In this method, there is a correlation between the degree of blur of an image and the contrast, and focusing is performed using the fact that the contrast of the image is maximized when there is a focus. The magnitude of the contrast can be evaluated based on the magnitude of the high frequency component of the imaging signal. That is, a high-frequency component of the image signal is extracted by the BPF 1124, and an integrated value of the absolute value of the high-frequency component by the evaluation value calculation unit 1125 is set as a focus evaluation value. As described above, the AF calculation unit 1126 performs the AF calculation based on the focus evaluation value. The CPU 112 adjusts the focusing lens position of the photographing lens 101 using the calculation result of the AF calculation unit 1126 to perform a focusing operation.
[0024]
2 and 3 show the overall operation flow of a digital camera having a face recognition function. In FIG. 2, first, when it is detected in step S101 that the power of the digital camera is turned on by the power switch 1161, the operation mode of the digital camera is confirmed in step S102. Here, it is determined whether the setting button S1164 has been set to the shooting mode for shooting the subject or the playback mode for playing back and displaying the image data recorded on the memory card. If the mode is set to the reproduction mode, the process proceeds to step S117 in FIG. 3, and if the mode is set to the shooting mode, the process proceeds to step S103. In step S103, the subject image to be captured is displayed on the LCD monitor 109 as a moving image. In step S104, it is determined whether or not it is set to perform a feature point extraction process for extracting feature points according to a predetermined algorithm on the displayed image. The setting button 1164 is used for this setting. If it is not set to perform the feature point extraction processing, the process proceeds to step S113 to perform a normal photographing operation. If the feature point extraction processing has been set, the flow advances to step S105 to extract feature points and their positional information from the display image for each frame or every two to three frames of the moving image data displayed on the LCD monitor 109. I do. The extracted feature points include the contours of the face, eyes, pupils, eyebrows, nose, mouth, ears, hands, feet, glasses, and the like of the person and their directions, positions, and sizes. Furthermore, by extracting the hairstyle, the skeleton, and the type of clothing, it is possible to determine the gender and race of the male and female, and to determine the age. Further, it is possible to extract not only humans but also animals such as dogs, cats and birds, and general subjects such as houses and automobiles. In the following description, feature points are mainly extracted for humans.
[0025]
In step S106, it is determined whether or not any of the plurality of extracted feature points matches a feature point registered in the storage unit 1127 of the digital camera in advance. If there is no matching feature point, in step S107, a marker indicating that a feature point has been detected is superimposed on the image displayed on the LCD monitor 109 and displayed. If a feature point that matches the registered feature point is detected, in step S108, it is superimposed and displayed with a marker different from the other feature points so that the registered feature point can be distinguished. FIG. 15 shows an example of the display result. Here, one of the five persons on the screen is too far and too small to detect a feature point as a face, and feature points of the face are detected for the remaining four persons, and one of them is registered. It is determined that it has been completed. For three persons whose feature points are simply detected, their faces are surrounded by wavy lines, and one registered person is surrounded by a solid line. Further, when personal name information such as a personal name corresponding to a feature point is also registered as feature point information at the same time, it is also displayed as shown in FIG. Thereby, the confirmation of the subject can be further ensured.
[0026]
Further, in this embodiment, the priority order when selecting an AE area or AF area described later is also registered as the feature point information. FIG. 13 shows an example of a recording state regarding a feature point in the storage unit 1127. In FIG. 13, feature points each having a name such as Mr. A, B child, and C chan, and feature points not named are registered in order as no name. In the registered contents of Mr. A, the priority in selecting the AE area and the AF area is set to 1. Thus, for example, if Mr. A and Mr. C are simultaneously extracted in the shooting screen, the area including Mr. A is set as the AE area or the AF area with priority. This priority can be arbitrarily changed. The date when the feature point of Mr. A was registered as the feature point information of Mr. A is recorded next as the registration date. Here, the registration date shown in (1) is the date when Mr. A was first registered (2), and (3) is A taken in a state different from (1), for example, landscape, backward, wearing glasses, etc. It shows the date on which he added other feature points and registered.
[0027]
As described above, by registering a plurality of feature points as the same person based on the presence or absence of glasses, beards, and the like, the accuracy of identifying a person with respect to the extracted feature points is improved. The contents of this feature can also be displayed on the LCD monitor 109 and arbitrarily added or deleted. In addition to the priority, the registration date, a simple comment, a processing method at the time of recording or reproduction effective when this feature point is detected (white balance setting, contour compensation processing setting, etc.), the distance to the feature point, etc. It may be recorded. Actual data of the feature points set to be registered in this way are sequentially recorded in the lower feature point data area.
[0028]
Steps S109 to S114 show steps for performing specific processing according to the extracted feature points. Of course, even when a feature point is detected, which of these steps is adopted can be arbitrarily selected using the setting button 1164. Hereinafter, a case in which all the steps are set to be selected will be described. In step S109, the displayed extraction result is registered. The registration in step S109 will be described in detail with reference to FIG. When the registration is completed, the process proceeds to the step of setting the shooting angle of view in step S110. By performing the setting in step S110, even when there are a plurality of persons in the shooting screen, the target subject can be automatically determined, and the persons can be zoomed up and captured in the center of the screen. This function is effective when shooting at your child's athletic meet or recital. Details of step S110 will be described with reference to FIG. In step S111, shooting conditions are set. Here, when there are a plurality of persons in the shooting screen, a predetermined area including a desired person is set as an AF area or an AE area, and aperture setting is performed according to the size and number of persons. Details of step S111 will be described with reference to FIGS. In step S112, the flash is set. Details of step S112 will be described with reference to FIG. Steps S109 to S112 up to this point are the settings before shooting, and the setting order can be arbitrarily changed according to the shooting screen, and the contents once set in each step can be reset.
[0029]
In step S113, the subject is photographed. Here, a person is detected to automatically set the number of shots, or actual exposure is performed according to an operation at the time of shooting a person. This photographing step will be described in detail with reference to FIGS. After the photographing is completed, a recording process is performed in step S114. Here, a process of detecting the face of the subject and changing the white balance and automatically reducing spots and moles on the face are performed. Details of step S114 will be described with reference to FIG. In step S115, the processed image data and feature point information are recorded as one file on a memory card. In step S116, it is determined whether the power is off. If it has not been turned off, the process returns to step S102 to determine the operation mode of the digital camera. If the power switch has been turned off, this sequence ends.
[0030]
If the reproduction mode has been set in step S102, the image data recorded in the memory card 111 is reproduced and displayed on the LCD monitor 109 in step S117 in FIG. This reproduced image may be a still image or a moving image. In step S118, it is determined whether or not it is set to perform the feature point extraction processing on the reproduced image in the same manner as in step S104. If it has not been set, the flow advances to step S126 to perform a normal reproduction operation. If the feature point extraction process has been set, the process advances to step S119 to determine whether any feature point information has already been added to the reproduced image data. If the feature point information has not been added, feature points are extracted from the image data in step S120 as in step S105. If the feature point information has been added, the process proceeds to step S121, and the feature point information added to the image data is read. In step S121, the extracted feature points or the read feature points and feature point information are superimposed on the reproduced image. The above-described marker display or icon display may be performed instead of the feature point.
[0031]
In step S123, it is determined whether or not the extracted feature point or the added feature point matches any of the feature points registered in the recording unit 1127. Here, as in step S106 described above, if there is no matching feature point, a marker or icon indicating that a feature point has been detected is superimposed on the image displayed on the LCD monitor 109 in step S124. To display. If a feature point that matches a registered feature point is detected, the fact that the feature point has been registered is discriminated in step S125, and a superimposed display is performed using a marker different from the other feature points. In step S126, the displayed extraction result is registered. This registration will also be described with reference to FIG. When the registration in step S126 is completed, it is determined in step S127 whether or not the next image data is to be reproduced. If the next image is selected with the U / D button 1165, the process returns to step S117. If the next image has not been selected, the flow advances to step S128 to determine whether the power switch 1161 has been turned off. If it has not been turned off, the process returns to step S102 in FIG. 2, and if it has been turned off, this sequence ends.
[0032]
《Registration of feature point information》
The step of registering feature point information will be described with reference to FIG. The registration step in FIG. 4 is common to step 109 in FIG. 2 and step S126 in FIG. If the image data is captured image data, in step S151, it is determined whether the same feature point as the feature point extracted by the feature point extraction calculation unit 1123 is registered in the storage unit 1127. If the image data is reproduced image data, in step S151, the characteristic points and characteristic point information added to the reproduced image data are read, and the read characteristic points or the same characteristic points or characteristic points as the characteristic point information are read out. It is determined whether the information is stored in the storage unit 1127 in the recording format described with reference to FIG. When the feature points and feature point information are not added to the reproduced image data, the feature points are extracted from the reproduced image in the same manner as in the case of the captured image data. Here, the feature point information added to the image data will be described with reference to FIG. As shown in FIG. 14, in a file of image data DSC002, feature point information and feature point data are recorded in addition to actual image data. In the case of FIG. 14, the feature point information is registered for two persons, Mr. A and Mr. C. The registration contents include the priority, the date when Mr. A or C was extracted in this image data, the position of the center of gravity of the feature point, and Mr. A. In addition, Mr. A extracted from image data other than the DSC002 image data. Since there are two feature points, they are additionally registered. Here, as in FIG. 13, a simple comment or a processing method at the time of recording or reproduction may be recorded. Further, the distance to the feature point calculated by the feature point extraction calculation unit 1123 may be recorded. Changing, adding, or deleting the data content of the feature point information is optional. The actual feature point data of Mr. A or Mr. C is sequentially recorded in the feature point data area thereunder.
[0033]
If the feature points of the captured image data or the feature points added to the reproduced image data and the feature point information have been registered in the storage unit 1127 in step S151, the process proceeds to step S152. Here, it is determined whether to add or change the registered feature points or feature point information. Specifically, the user inputs or changes the extracted person name or priority. If no addition or change is made in step S152, the process proceeds to step S156, and if addition or change is input, the process proceeds to step S153.
[0034]
If the feature point and the feature point information have not been registered in step S151, the process proceeds to step S153. Here, the extracted feature points and feature point information to be registered are displayed on the LCD monitor 109. In step S154, it is determined whether or not an instruction has been issued to register the displayed feature points and feature point information. In principle, unless the newly detected feature point is exactly the same as the already registered feature point, the newly extracted feature point adds the feature point and the feature point information to the storage unit 1127 in step S155 and stores them. This storage instruction can be performed, for example, by selecting a registration execution display displayed on the screen of the LCD monitor 109 with the setting button 1164 (not shown). As a result, the accuracy of person identification gradually increases. If the extracted feature point has already been registered or a feature point completely unrelated to the user has been extracted, no registration instruction is newly issued, and the process proceeds to step S156. In step S156, it is determined whether or not to register another feature point in the same screen. If another feature point is selected, the process returns to step S151 and is registered in the same procedure as before.
[0035]
If another feature point has not been selected, the flow advances to step S157 to determine the operation mode of the digital camera. If the photographing mode has been set, the registration step ends. This registration operation is performed each time the display screen is changed by changing the subject or the like. If the operation mode of the camera is the playback mode, the process proceeds to step S158. Here, it is determined whether or not the card recording execution display is selected by the setting button 1164 (not shown). When the recording instruction is selected, the changed or newly added feature point or feature point information is added to the original image and recorded on the memory card. If not selected, the main registration step ends without updating the additional information.
[0036]
《Shooting angle of view》
The setting of the shooting angle of view in step S110 in FIG. 2 will be described with reference to FIG. This is a suitable setting sequence when, for example, the user wants to photograph his / her child C at the athletic meet. First, in step S171, a person to be photographed (for example, C-chan) is selected from the feature point information stored in the storage unit 1127 using the setting button 1164 based on the unique name information of the person, and registered in advance as a priority photographing person. . The person registered as the priority photographing person has priority over the priority added to the feature point described above. In step S172, it is determined whether a person (mainly a face) has been extracted from the shooting screen. If not extracted, the process proceeds to step S173, where the CPU 112 drives the driver 113 to zoom up the zoom lens in the long focal direction. This zooming up may be manual or automatic. In step S174, it is determined whether or not the zoom lens has reached the maximum zoom position, and if not, the process returns to step S172 and repeats this until a person is extracted. If the zoom lens has reached the maximum focal position in step S174, the flow advances to step S175 to display a warning (not shown) on the LCD monitor 109 indicating that no person is detected, and ends the step of setting the angle of view. When the photographer changes the photographing direction and the photographing screen changes, the steps from step S172 are repeated.
[0037]
If a face is detected in step S172, a marker is superimposed and displayed on the extracted face of the person as shown in FIG. 15 in step S176. Looking at this display screen, the user confirms whether or not a preset face of the person is in the shooting screen. If not, the user can move the screen to easily capture the desired person in the screen. In step S177, it is determined whether the set person on the screen is equal to or larger than a predetermined size. If the size is equal to or larger than the predetermined size, this step is ended. If the size is equal to or smaller than the predetermined size, the process proceeds to step S178. In step S178, the CPU 112 automatically zooms up the zoom lens. At this time, the above-described VR lens is also driven by the driver 113 at the same time so that the center of gravity of the extracted subject does not deviate from the vicinity of the center of the screen.
[0038]
In step S179, it is determined whether or not the size of the set face of the person has become equal to or larger than a predetermined size. If not, the process returns to step S177 to continue driving the zoom lens and the VR lens. If the maximum zoom position has been reached in step S180, the flow advances to step S181 to issue a warning. This warning is displayed on the LCD monitor 109 (not shown), and the buzzer 123 also issues a voice warning to end this sequence. If the size of the face of the desired person has become equal to or larger than the predetermined size in step S179, the present sequence ends. Here, the predetermined size is set in advance using the setting button 1164, for example, about 10% of the entire screen. In addition, the zoom-up in step S178 may be performed without moving the face of the desired person to the center of the screen using the VR lens. By doing so, the user can manually zoom up the desired subject at the center to the desired size manually. In this way, it is possible to reliably find and record one's own child from a large number of children, such as an athletic meet, a concert, and a recital. In the description so far, zooming up is automatically performed when the face is small. Conversely, when the face is too large, the zoom is automatically reduced so that the face becomes a predetermined size. You may do it. Similarly, if the screen is changed by the user after reaching the maximum zoom position in step S174, the zoom may be reversed again until a face is extracted. Since the sequence in these cases is almost the same as that in the case of zooming up, the description is omitted.
[0039]
<< Setting of shooting conditions >>
The setting of the photographing conditions in step S111 in FIG. 2 will be described with reference to FIGS. FIG. 6 is a flowchart for setting an optimum depth of focus by changing the aperture value according to the distance to each of the subjects when a plurality of subjects are extracted. In step S201, it is determined whether or not a contour or an eye of a person's face has been detected. If neither is detected, the process proceeds to step S208, where it is determined that a distant view such as a landscape is to be taken, and the process proceeds to step S208 to set a large aperture value to increase the depth of focus. If the face outline or the eyes are detected in step S201, the process proceeds to step S202. In step S202, the zoom lens position (focal length) at that time is detected by the detector 121 and stored in the storage unit 1127. In step S203, the distance to the subject is calculated from the size or eye width of the face contour extracted as described above and the zoom lens position stored in the storage unit 1127, and stored in the storage unit 1127. In step S204, it is determined whether the distance calculation has been completed for all the persons in the shooting screen. If the processing has not been completed, the process returns to step S203, and the distance is calculated for each person and stored in the storage unit 1127.
[0040]
When the distance calculation is completed for all the extracted persons, the process proceeds to step S205, and the number of extracted persons is determined. If it is determined in step S205 that the number of persons is equal to or more than the predetermined value, it is determined that the photograph is a group photograph, and the flow advances to step S208 to increase the depth of focus and increase the aperture value so that all persons are in focus. Set. Specifically, based on the distance to each person detected in step S203, an optimum depth of focus for focusing on all the persons is obtained, and an aperture value corresponding thereto is set. If it is determined in step S205 that the number of persons is equal to or less than the predetermined value, the process proceeds to step S206, where the size of each face is determined. If it is determined that the size of the face is equal to or larger than the predetermined size, the process proceeds to step S207, in which it is determined that portrait shooting is to be performed, and the aperture value is reduced to set the depth of focus to be shallow. If it is determined in step S206 that the size of the face is equal to or smaller than the predetermined size, it is determined that the photograph is a commemorative photograph including scenery, and the flow advances to step S208 to increase the aperture value to increase the depth of focus. Here, the predetermined number is set in advance to about 3 or 4 persons.
[0041]
In this way, if the user has previously set the shooting mode to a landscape shooting mode and a person is detected in the shooting screen, a portrait shooting with a shallow depth suitable for shooting a person is automatically performed. You can shoot in the mode for use. Conversely, if no person is detected when the mode is set to portrait shooting, the mode can be automatically changed to the mode for scenery shooting with a large depth, and shooting can be performed. In the method of calculating the distance to the subject described here, the size of the face and the interpupillary distance differ for adults and children, and there are individual differences between adults and children. Therefore, it is only an approximate distance obtained from the average face size and eye width of an adult or child. The accurate focus position is determined based on the peak position by the above-described contrast method.
[0042]
Next, setting of the AF area or the AE area will be described with reference to FIGS. 7, 16, 17, and 18. FIG. In FIG. 7, the setting of the AF area is described, but the setting of the AE area is completely the same. In step S221 in FIG. 7, it is first determined whether or not a person is within a predetermined range in the shooting screen. Here, as a method of determining the presence or absence of a person, the determination is made based on whether or not the outline of the face has been extracted. If there is no person, the process proceeds to step S222, and a fixed area such as a preset central portion is set as an AF area. This is because, even if a person is extracted, if the person is located near the corner of the screen, the photographer determines that the photographer is not trying to focus on the person and eliminates this. FIG. 16 shows an example of a shooting screen in this case. In the figure, the person indicated by the thick wavy line is outside the range shown by the thin wavy line in the screen. In this case, the AF area is set in the thick solid line frame at the center of the screen. When multi-point distance measurement is possible, this AF area can be set at a position other than the center of the screen.
[0043]
If a person is extracted within the predetermined range of the screen in step S221, the process proceeds to step S223, and it is determined whether or not the number of faces of the extracted person is plural. If not, the process proceeds to step S228; otherwise, the process proceeds to step S224. In step S224, the largest face among the extracted faces is selected, set as the AF area, and displayed as the AF area. FIG. 17 shows a display example of the shooting screen in this case. Here, it is shown that the largest face portion displayed by the extracted solid line is set as the AF area. In step S225, it is determined whether a person position other than the automatically set AF area is set in the AF area. If the photographer operates the setting button 1164 to select any of the other persons displayed in wavy lines, the AF area is sequentially moved according to the operation. In this case, the order of selection is such that if a person has the above-mentioned priority order stored, the person is selected according to the priority order, but is selected in the order of the size of the extracted face. May be. If the selection is completed in step S227, the flow advances to step S228 to determine whether or not the size of the extracted face area is equal to or larger than a first predetermined value. If the value is equal to or smaller than the first predetermined value, the process proceeds to step S229 to set the AF area to a predetermined size (for example, a first predetermined value) including the extracted face inside. This is because if the area of the extracted face is too small, the accuracy in the AF calculation described above deteriorates. FIG. 18 shows a display example in this case.
[0044]
If the area of the face extracted in step S228 is equal to or larger than the first predetermined value, the process proceeds to step S230, where it is determined whether the area is equal to or larger than the second predetermined value. If the value is equal to or larger than the second predetermined value, it is determined that the portrait shooting is being performed, and the process proceeds to step S231 to set the position of the extracted eyes in the AF area instead of setting the entire face in the AF area. FIG. 19 shows a display example in this case. If the value is equal to or smaller than the second predetermined value, the process proceeds to step S232, and the area of the face extracted earlier is set as the AF area. Here, the first and second predetermined values are set in advance to optimal values after photographing various objects.
[0045]
In the description so far, in step S224, the largest face is selected first, but this is displayed first with the person with the highest registration priority or the priority photographing person described in the section of setting the photographing angle of view. You may do it. Alternatively, the distance to the person may be calculated simultaneously with the extraction of the face, and the person at the shortest distance may be selected in order. Also, for the above-mentioned priority photographing person, the movement range of the focus lens is limited based on the calculated distance so that it can move only a predetermined range before and after the calculated distance, so that the AF operation on the person can be performed in the background. It is possible to reduce the influence. Further, the AF following operation for this priority photographing person is reliably and quickly performed. In addition, when the continuous shooting mode is set for sports shooting or the like, the shooting distance for the first frame is determined based on the evaluation value peak by the contrast method. It is also possible to detect the difference (change amount) between the previous shot and the outline of the person or face or the frame before the eye width and calculate the distance to the subject together with the zoom lens position at that time. It is. By doing so, it is possible to realize AF control that can quickly follow a subject change.
[0046]
The sequence of setting the AF area up to this point can be applied to the setting of the AE area in the same manner as described above. Of course, also in this case, the first predetermined value and the second predetermined value described above are optimally determined in advance by an experiment similarly to the case of the AF area.
[0047]
Next, the change of the photographing mode will be described with reference to FIG. In step S241, it is determined whether the photographing mode is set to a person photographing mode suitable for photographing a person. In this person photographing mode, as an example, in order to blur the background, the aperture is set to a value close to open, the white balance is set to emphasize the skin color, and the distance measurement mode is set to the AF mode. If the portrait mode has been set, the process proceeds to step S242, in which it is determined whether a person has been extracted. If not extracted, the process proceeds to step S243, a warning is issued by a buzzer, a monitor, or the like, and in step S244, the mode is changed to a landscape photographing mode suitable for distant photographing, and the sequence ends. In the case of this mode for landscape photography, the aperture is set to a large value in order to increase the depth of focus, and in the distance measurement mode, the focus lens is driven to a fixed position that focuses on an infinite position according to the depth of focus. The white balance may be set to be used during normal shooting, or may be set to emphasize the green and blue sky of trees in daytime shooting. If a person is detected in step S242, this step ends. If the person photographing mode has not been set in step S241, the process proceeds to step S245, where it is determined whether a person has been detected. If not detected, the present sequence is terminated. If detected, the process proceeds to step S246 to warn the user with a buzzer or a monitor. In step S247, the mode is changed to a portrait photographing mode and the present sequence is terminated.
[0048]
《Strobe setting》
A method of setting the amount of light emission of the strobe will be described with reference to FIG. In step S251, it is determined whether or not the subject brightness measured by the AE operation circuit 1121 for the subject in the predetermined AE area is larger than a predetermined value. Here, the subject is not limited to a person. If the subject is a dark subject whose brightness is smaller than the predetermined value, the process proceeds to step S261. If the subject is brighter than the predetermined value and the subject is bright, the process proceeds to step S252. In step S252, it is determined whether or not a person has been extracted from the shooting screen. Here, the person is also determined based on whether or not the outline of the face has been extracted. If the face outline has not been extracted, the flow advances to step S253 to set the strobe to non-emission. At the time of shooting, the CPU 112 controls the strobe to emit no light based on the non-light emission setting. Thus, at the time of actual shooting, the subject is exposed with the shutter speed and the aperture value based on the calculation result of the AE calculation unit 1121.
[0049]
If the face outline has been extracted in step S252, the process proceeds to step S254 to measure the brightness of the extracted human face. In step S255, if the measured brightness of the face portion is brighter than a predetermined value, the process proceeds to step S253, and if it is dark, the process proceeds to step S256. In step S256, the distance to the extracted person is calculated based on the detected face size or eye width and the zoom lens position at that time, as in the case of step S203 in FIG. 6 described above. In step S257, it is determined whether or not the distance to the person is within the proper exposure range of the strobe. If the exposure is within the proper exposure range, the flow advances to step S258 to set pre-emission for red-eye reduction before photographing, and the distance calculated in step S259 so that the person's face extracted in step S259 has proper exposure. Set the amount of flash light based on.
[0050]
Accordingly, the CPU 112 controls to set the shutter speed and the aperture value calculated by the AE calculation unit 1121 at the time of actual shooting. Thus, the entire screen excluding the person is photographed in the proper exposure state. On the other hand, for a person who is darker than the surroundings, control is performed so that the strobe light is emitted with the light emission amount set based on the distance. Thus, a person can be photographed in an appropriate exposure state. This function is particularly effective in backlit shooting. Prior to the main flash emission, the CPU 112 controls the pre-flash for red-eye reduction based on the setting in step S258. This pre-emission may be performed a plurality of times. If it is determined in step S257 that the exposure is out of the proper exposure range, the process advances to step S259 to display a warning that a person does not perform proper exposure (not shown).
[0051]
If the subject is dark in step S251, the flow advances to step S261 to determine whether or not the outline of the face as a person has been extracted in the shooting screen. If the outline of the face has been extracted, the process proceeds to step S262, and the distance to the extracted person is calculated in the same manner as in step S256. In step S263, it is determined whether or not the distance to the person is within the proper exposure range of the strobe. If the exposure is out of the proper exposure range, the process proceeds to step S260 to display a warning that the person is out of the proper exposure. If the exposure is within the proper exposure range, the flow advances to step S264 to set the flash to pre-emit light before photographing. In this case, the role of the pre-emission is to determine the amount of strobe light emission at the time of actual photographing based on the reflected light from the person due to the pre-emission in addition to the red-eye reduction described in step S258. In step S265, a setting is made so that the flash emission amount at the time of shooting is determined based on the reflected light from the face portion at the time of the pre-flash. Here, as in the previous case, the pre-emission may be performed a plurality of times, and the pre-emission for red-eye reduction and the pre-emission for reflected light measurement may be separated. If no person is extracted in step S260, the flow advances to step S266 to set the amount of light emitted from the strobe based on the result of subjecting the subject brightness to AE. Instead of setting the pre-flash emission for red-eye reduction in steps S258 and S264, a setting may be made in which the pupil photographed after photographing is detected and the red-eye portion is corrected by software.
[0052]
"photograph"
The sequences of two types of imaging methods different from the normal ones will be described with reference to FIGS. 10, 11, 20, and 21. FIG. 10 shows a sequence configured so that when the full-press SW 1163 is pressed once, an image is automatically taken at a plurality of peak positions of the focus evaluation value obtained from the AF area. As a result, a plurality of focused image data can be obtained for each subject corresponding to each peak position. When it is detected in step S301 that the half-press SW 1162 has been turned on, in step S302, the CPU 112 moves the focus lens from a close range to infinity, calculates an evaluation value, and detects a peak of the evaluation value. In step S303, it is determined whether there are a plurality of peaks. If there is only one peak, the process proceeds to step S306, and if a plurality of peaks are detected, the process proceeds to step S304. In step S304, it is determined whether or not a person has been extracted by the feature point extraction calculation unit 1123. If a person is extracted here, the distance to the extracted person from the extracted eye width and zoom lens position is calculated in the same manner as before, and the calculated distance to the person is calculated as multiple peaks. Is determined. In step S305, the closest person position is selected as the first photographing position, and the CPU 112 drives the focus lens to the peak position indicating the closest person position.
[0053]
If there is only one peak position in step S303, the peak position detected in step S306 (in this case, this position is the closest peak position) is selected. Even when a plurality of peaks are detected and no person is detected in step S304, the process proceeds to step S306, and the closest position is selected as the shooting position.
[0054]
In step S307, it is determined whether the full-press SW 1163 has been turned on. If it has not been turned on, the process proceeds to step S313, and if it has been turned on, the process proceeds to step S308. In step S308, exposure is performed at the peak position selected in step S305 or step S306, and the stored image data is read out after the exposure is completed. In step S309, it is determined whether there is a peak position corresponding to another person position. If there is a peak position corresponding to another person position, the process returns to step S308 to read out the image data accumulated after the second exposure at that position. If there is no other peak position corresponding to the person position, the flow advances to step S311 to determine whether exposure at the nearest peak position has been completed. If the exposure at the closest peak position has not been completed, the process proceeds to step S312, and exposure is continued at the closest position. If the exposure at the closest position has been completed, the present sequence ends. If it is determined in step S307 that the full-press SW 1163 has not been pressed, the process advances to step S313. In step S313, it is determined whether the half-press SW 1162 has been pressed. If the half-press SW 1162 has been pressed, the flow returns to step S307 to lock the focus until the full-press SW 1163 is pressed. If it is determined in step S313 that the half-press SW 1162 has not been pressed, the present sequence ends.
[0055]
An actual photographing example will be described with reference to FIGS. FIG. 20 shows a case where a person and a flower are arranged in front of the person in the shooting screen. In normal AF photography, focusing is performed with the closest priority, so in this case, only one image is focused on the flower in front. FIG. 21 shows an evaluation value change corresponding to the focus lens position in this case. Here, the evaluation value change when the entire screen is set as the AF area is shown. In this case, two peaks (P1, P2) are detected in the focus evaluation value. In normal AF, if the size is a certain level or more regardless of the size of P1 and P2, the closest peak P2 is selected. As described above, it is not possible to determine which of the position x1 corresponding to P1 and the position x2 corresponding to P2 exists by simply detecting the contrast of the subject. On the other hand, by calculating the distance to the person from the size or eye width of the person's face, the position x1 can be determined to be the peak of the person. Therefore, by photographing twice at the closest position x2 and at the person position x1, it is possible to obtain in-focus image data. Alternatively, the image may be taken only at the person peak position, and the image may not be taken when the closest peak is a peak other than the person. At this time, as in the case of the setting of the photographing angle of view described above, the priority photographing person may be set in the camera in advance, and the photographing may be performed only once at the peak corresponding to the person.
[0056]
Thereby, even if a plurality of persons are in the AE area, an image in which a desired person is in focus can be reliably obtained. When there are a plurality of persons, the photographing may not be performed for all persons but may be performed at a person position corresponding to a peak having a certain evaluation value or more. Alternatively, the maximum number of consecutive shots may be set. As described above, since the distance to the feature point calculated based on the feature point is not an accurate distance, it is used to assist the determination of the person position peak when there are a plurality of peaks in the contrast method. This makes it possible to focus accurately.
[0057]
Next, a method for preventing an image from being photographed with the eyes closed will be described with reference to FIG. If the full-press SW 1163 is pressed in step S321, the feature point extraction calculation unit 1123 detects the pupil of the subject from the image data before the full-press switch is pressed in step S322. Here, if it is determined that the subject has closed eyes and the pupil is not detected, the actual exposure is delayed until the pupil of the subject is detected in step S323, and the process returns to step S322. If a pupil is detected, exposure is actually performed in step S324, and the exposed image data is read in step S325. In step S326, the pupil is detected again by the feature point extraction and calculation unit 1123 immediately from the read image data. If no pupil is detected at this time, a warning is given by the buzzer 123 in step S327, and the process returns to step S322 to confirm that the pupil has been detected and immediately re-expose. If a pupil is detected in step S326, the present sequence ends. In this way, the user confirms that the subject has opened his / her eyes before taking a picture, and immediately confirms whether or not the subject has taken a picture with his / her eyes closed after taking the picture. Thus, if the image is taken with the eyes closed, the image can be taken again immediately. Alternatively, when the image is taken with the eyes closed instead of taking the image again, only that portion may be corrected by software after the image is taken. As a correction method, an open eye of the subject when a moving image of the subject is shot on the monitor after shooting may be extracted and replaced with a closed eye.
[0058]
In the description of FIG. 11, it is detected that the eyes are closed after the photographing, and the photographing is performed again. However, it is possible to obtain the best image by detecting the defect of the photographed subject and photographing again. It can be. For example, if the subject has moved during shooting, it can be determined by detecting blurring from the reproduced image. Alternatively, if the face is hidden in the group photo, compare the number of faces before shooting with the number of faces after shooting, or if the face contour extraction is insufficient. It is also possible to set to shoot again. Further, in the warning in step S327, not only a buzzer is used to warn the user, but also voices such as "the image was taken with your eyes closed", "the image was taken with blurring", and "some people have hidden faces.""Or the like may be specifically warned of a defect.
[0059]
《Recording process》
The process at the time of recording accompanying the feature point extraction will be described with reference to FIG. In step S401, first, it is determined whether or not the outline of the face of the person has been extracted by the feature point extraction calculation unit 1123. If not extracted, recording processing using preset color reproduction or contour emphasis parameters is performed. If extracted, the process proceeds to step S402 to determine the number of extracted faces. If the number of faces is equal to or smaller than the predetermined value, the process proceeds to step S406, and if it is equal to or larger than the predetermined value, the process proceeds to step S403. Here, a value of about 3 to 4 is suitable as the predetermined value. If the number of faces is more than three or four, it is determined that a group photograph is being taken, and in step S403 the parameters for color reproduction are used in the digital signal processing circuit 106 with the emphasis on skin color. To do. In step S404, a specific part of the face is further detected, and in step S405, processing is performed to weaken the outline enhancement of the face part other than the vicinity of the specific part. The specific site is, for example, an eye, a nose, a mouth, an ear, a hair, an eyebrow, or the like. As a result, a low-pass filter is applied to the frequency characteristics in portions other than the vicinity of these specific portions, so that wrinkles, moles, spots, and the like on the cheeks and forehead can be made inconspicuous. If the number of faces is equal to or smaller than the predetermined value in step S402, the process proceeds to step S406 to determine the size of the face. If a plurality of faces are detected, it is determined that the face has the largest size. If the area of the face is larger than the predetermined value, the process proceeds to step S403 where it is determined that the portrait shooting is to be performed and a process that emphasizes the skin color is performed. If the area of the face is smaller than a predetermined value, it is determined to be a commemorative photograph including scenery, and normal recording processing is performed.
[0060]
As described above, in step S403, the skin color emphasis processing is not performed only on the face portion, but the parameter emphasizing the skin color is selected and processed on the entire image data instead of the normal color parameters. This is because, even in a portion other than the flesh color, even if the process using the parameter that emphasizes the flesh color is performed, since the flesh color component is originally small, the influence of the flesh color emphasis treatment is small. This eliminates the need for a complicated process of extracting a face part and performing a skin color emphasis processing only on the face part.
[0061]
In the description so far, in contrast to the processing performed in step S405, a sharp face is obtained by strongly enhancing the contours of the extracted eyes, nose, mouth, ears, hair, eyebrows and the vicinity thereof. It can also be expressed. Further, since the effect is small even if the contour emphasis is performed on a very small face, the contour emphasis may be performed only on a certain large face. Further, only one of the flesh color processing in step S403 and the contour enhancement processing in step S405 may be selectable. A plurality of parameters for the skin color processing or the contour enhancement processing are provided, and it is easy to appropriately select from these parameters to make the degree of the skin color or the degree of contour enhancement the best. In addition, in the case of an elderly person or a woman, a parameter for increasing the saturation or the luminance other than the hue may be selected by judging the age or the sex of the gender. Alternatively, if the optimal color balance for a specific race is applied to other races as it is, an unnatural skin color will be reproduced, so it is also possible to select a color parameter that reduces the skin color according to the race. It is effective. For this purpose, the race may be determined by judging from the skeleton shape of the face, limbs, ears, nose, etc., the color of the pupil and face, the lip shape, clothing, hairstyle, and the like. Furthermore, in the description so far, these processes are performed before recording, but may be performed during reproduction. That is, in addition to the above-described feature point information and feature point data, information unique to each individual, white balance processing information, and contour enhancement processing information are simultaneously recorded in the image file described with reference to FIG. Processing can be performed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a digital camera according to the present invention.
FIG. 2 is a flowchart illustrating an operation sequence of the digital camera according to the present invention.
FIG. 3 is a flowchart illustrating an operation sequence of the digital camera according to the present invention.
FIG. 4 is a flowchart illustrating a sequence when registering feature point information.
FIG. 5 is a flowchart illustrating a sequence when setting a shooting angle of view.
FIG. 6 is a flowchart illustrating a sequence when setting photographing conditions.
FIG. 7 is a flowchart illustrating a sequence when setting other photographing conditions.
FIG. 8 is a flowchart illustrating a sequence when setting other photographing conditions.
FIG. 9 is a flowchart illustrating a sequence when setting the flash emission amount.
FIG. 10 is a flowchart illustrating an imaging sequence.
FIG. 11 is a flowchart illustrating another photographing sequence.
FIG. 12 is a flowchart illustrating a recording processing sequence.
FIG. 13 is a diagram for describing a recording state of feature points and feature point information.
FIG. 14 is a diagram illustrating a recording state of image data and feature point information added thereto.
FIG. 15 is a display example in which markers are displayed for each of the extracted feature points separately.
FIG. 16 is a display example showing setting of an AF area or an AE area.
FIG. 17 is a display example showing another setting of the AF area or the AE area.
FIG. 18 is a display example showing another setting of the AF area or the AE area.
FIG. 19 is a display example showing another setting of the AF area or the AE area.
FIG. 20 is a display example showing setting of an AF area.
FIG. 21 is a diagram illustrating the positional relationship between subjects in FIG. 20;
FIG. 22 is an explanatory diagram for calculating a distance to a person from a focal length of a lens and an interpupillary distance.
[Explanation of symbols]
101 imaging lens 102 aperture 103 imaging element 104 analog signal processing unit 105 buffer memory 106 digital signal processing unit 108 D / A converter 109 LCD monitor 110 recording / playback signal processing unit 111 external storage medium 112 CPU
113 Lens drive unit 114 Aperture drive unit 115 Image sensor drive unit 116 Operation member 120 Interface 121 Lens position detection unit 122 Strobe 123 Sound generator 135 A / D converter 1121 AE calculation unit 1122 AWB calculation unit 1124 Bandpass filter 1125 Addition unit 1126 AF Operation unit 1127 Storage unit 1161 Power switch 1162 Half-press switch 1163 Full-press switch 1164 Setting button 1165 Up / Down button

Claims (23)

画像データから所定の特徴部位を抽出する抽出手段と、ユーザからの指示を受け付ける受付手段と、前記特徴点が複数抽出された場合に前記受付手段が受け付けた指示によりそれぞれの特徴部位を所定の順番で選択する選択手段と、前記選択手段により選択された前記特徴部位を特定する特徴部位情報を表示する表示手段とを備えたことを特徴とするデジタルカメラ。Extracting means for extracting a predetermined characteristic portion from the image data; receiving means for receiving an instruction from a user; and when the plurality of characteristic points are extracted, the characteristic portions are arranged in a predetermined order by the instruction received by the receiving means. 1. A digital camera, comprising: a selection unit for selecting in step (1); and a display unit for displaying characteristic part information for specifying the characteristic part selected by the selection unit. 請求項1記載のデジタルカメラにおいて、前記表示手段は前記画像データに重畳して前記特徴部位情報を表示することを特徴とするデジタルカメラ。2. The digital camera according to claim 1, wherein the display unit displays the characteristic portion information in a manner superimposed on the image data. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位の中から顔の大きさを判別する判別手段を備え、
前記選択手段は前記判別手段が判別した顔の大きい順に選択することを特徴とするデジタルカメラ。
2. The digital camera according to claim 1, further comprising: a determination unit configured to determine a size of a face from among the characteristic portions extracted by the extraction unit,
2. The digital camera according to claim 1, wherein the selection unit selects the face in the descending order of the face determined by the determination unit.
請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位までの距離を判別する判別手段を備え、前記選択手段は前記判別手段が判別した距離の近い順に選択することを特徴とするデジタルカメラ。2. The digital camera according to claim 1, further comprising a discriminating means for discriminating a distance to said characteristic portion extracted by said extracting means, wherein said selecting means selects the distance in the order of decreasing distance discriminated by said discriminating means. Digital camera that features. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアをフォーカスを検出するためのフォーカスエリアとして設定するフォーカスエリア設定手段を備えたことを特徴とするデジタルカメラ。2. The digital camera according to claim 1, further comprising a focus area setting unit that sets a predetermined area including the characteristic portion extracted by the extraction unit as a focus area for detecting focus. Digital camera. 請求項1記載のデジタルカメラにおいて、更に、前記抽出手段によって抽出された前記特徴部位を含んだ所定エリアを測光エリアとして設定する測光エリア設定手段を備えたことを特徴とするデジタルカメラ。2. The digital camera according to claim 1, further comprising: a photometric area setting unit that sets a predetermined area including the characteristic portion extracted by the extraction unit as a photometric area. 画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を受け付ける受付手段と、前記特徴部位と前記特徴部位に関する情報を記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。Extracting means for extracting a predetermined characteristic part from the image data; display means for displaying the characteristic part extracted by the extracting means; accepting means for receiving information on the characteristic part displayed by the display means; A digital camera, comprising: a characteristic portion; and storage means for storing information on the characteristic portion. 画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した前記特徴部位を表示する表示手段と、前記表示手段が表示している前記特徴部位に関する情報を入力する入力手段と、前記特徴部位と前記特徴部位に関する情報とを前記画像データと関連付けて記録するよう指示する指示手段と、前記指示手段によって関連付けられた前記特徴部位と前記特徴部位に関する情報と前記画像データとを記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。Extracting means for extracting a predetermined characteristic part from image data, display means for displaying the characteristic part extracted by the extracting means, input means for inputting information about the characteristic part displayed by the display means, Instructing means for instructing to record the characteristic part and the information on the characteristic part in association with the image data, and storing the characteristic part, the information on the characteristic part, and the image data associated by the instruction means A digital camera, comprising: a storage unit. 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記特徴部位に関する固有名情報であることを特徴とするデジタルカメラ。9. The digital camera according to claim 7, wherein the information on the characteristic part is unique name information on the characteristic part. 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報であることを特徴とするデジタルカメラ。9. The digital camera according to claim 7, wherein the information relating to the characteristic part is priority information that defines a selection priority when a plurality of characteristic parts are extracted at the same time. Digital camera. 請求項10記載のデジタルカメラにおいて、更に、前記優先順位情報を識別する識別手段と、前記識別手段が識別した優先順位に基づいて順に選択する選択手段とを備えたことを特徴とするデジタルカメラ。11. The digital camera according to claim 10, further comprising: identification means for identifying the priority information; and selection means for sequentially selecting the priority information based on the priority identified by the identification means. 請求項10記載のデジタルカメラにおいて、更に、前記表示手段に表示されている所定の被写体までの距離を測定するための測距エリアを設定する測距エリア設定手段を備え、前記優先順位情報とは、前記複数の特徴部位の中から前記測距エリア設定手段が測距エリアを設定する際の優先順位であることを特徴とするデジタルカメラ。11. The digital camera according to claim 10, further comprising a distance measurement area setting means for setting a distance measurement area for measuring a distance to a predetermined subject displayed on said display means, wherein said priority information is A digital camera having a priority when the ranging area setting means sets a ranging area from among the plurality of characteristic parts. 請求項10記載のデジタルカメラにおいて、更に、前記表示手段に表示されている所定の被写体の明るさを測定するための測光エリアを設定する測光エリア設定手段を備え、
前記優先順位情報とは、前記複数の特徴部位の中から前記測光エリア設定手段が測光エリアを設定する際の優先順位であることを特徴とするデジタルカメラ。
The digital camera according to claim 10, further comprising a photometric area setting unit that sets a photometric area for measuring brightness of a predetermined subject displayed on the display unit,
The digital camera according to claim 1, wherein the priority information is a priority when the photometric area setting unit sets a photometric area from among the plurality of characteristic parts.
請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記特徴部位を含む画像データを記録する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報であることを特徴とするデジタルカメラ。9. The digital camera according to claim 7, wherein the information on the characteristic part is at least one of color processing information and contour correction processing information when recording image data including the characteristic part. A digital camera characterized in that: 請求項7または請求項8いずれかに記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記特徴部位を含む画像データを再生する際の色処理情報あるいは輪郭補正処理情報の少なくとも一つの情報であることを特徴とするデジタルカメラ。9. The digital camera according to claim 7, wherein the information on the characteristic part is at least one of color processing information and contour correction processing information when reproducing image data including the characteristic part. A digital camera characterized in that: 請求項7記載のデジタルカメラにおいて、更に、前記表示手段に表示している特徴部位あるいはその特徴部位に関する情報の少なくとも一つが前記記録手段に記録済みであったならば記録済みであることを識別表示する識別表示手段を備えたことを特徴とするデジタルカメラ。8. The digital camera according to claim 7, further comprising, if at least one of the characteristic part displayed on the display means and information on the characteristic part has been recorded in the recording means, indicates that the characteristic part has been recorded. A digital camera, comprising: 請求項8記載のデジタルカメラにおいて、前記特徴部位に関する情報とは前記画像データから前記特徴部位を抽出したときの前記画像データ内における位置情報であることを特徴とするデジタルカメラ。9. The digital camera according to claim 8, wherein the information on the characteristic part is position information in the image data when the characteristic part is extracted from the image data. 第1の特徴部位と前記第1の特徴部位に関する第1の固有名情報とが記憶された記憶手段と、画像データから所定の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した第2の特徴部位に関する第2の固有名情報を入力する入力手段と、前記第1の固有名情報と前記第2の固有名情報とが同一であって且つ、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記記憶手段に追加して記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。Storage means for storing a first characteristic part and first unique name information relating to the first characteristic part; extracting means for extracting a predetermined characteristic part from image data; Input means for inputting second unique name information relating to the characteristic portion, wherein the first unique name information and the second unique name information are the same, and the second characteristic portion is the first characteristic name. And a storage means for adding and storing the second characteristic part to the storage means when the characteristic part is different from the characteristic part. 第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第2の特徴部位が前記第1の特徴部位と異なった場合に前記第2の特徴部位を前記第1の記憶手段に追加して記憶する記憶手段とを備えたことを特徴とするデジタルカメラ。A first storage unit in which a first feature portion and unique name information relating to the first feature portion are stored, and a second storage portion in which a second feature portion and the unique name information are stored in association with image data. 2 storage means, and storage means for additionally storing the second characteristic part in the first storage part when the second characteristic part is different from the first characteristic part. Digital camera characterized by the following. 第1の特徴部位と前記第1の特徴部位に関する固有名情報とが記憶された第1の記憶手段と、第2の特徴部位点と前記固有名情報とが画像データと関連付けられて記憶された第2の記憶手段と、前記第1の特徴部位が前記第2の特徴部位と異なった場合に前記第1の特徴部位を前記第2の記憶手段に追加して記憶するよう指示する指示手段とを備えたことを特徴とするデジタルカメラ。A first storage unit in which a first feature portion and unique name information relating to the first feature portion are stored; and a second feature portion point and the unique name information stored in association with image data. Second storage means, and instructing means for instructing that the first characteristic part is additionally stored in the second storage part when the first characteristic part is different from the second characteristic part. A digital camera comprising: 画像データを表示する表示手段と、
前記画像データ内から所定の特徴部位を抽出する抽出手段と、複数の特徴部位を予め記憶する記憶手段と、前記抽出手段によって抽出された特徴部位が前記記憶手段に記憶されている複数の特徴部位のいずれかと一致するかどうか判別する判別手段と、前記判別手段によって判別された判別結果を前記表示手段に識別表示する識別表示手段とを備えたことを特徴とするデジタルカメラ。
Display means for displaying image data;
Extracting means for extracting a predetermined characteristic part from the image data; storage means for storing a plurality of characteristic parts in advance; and a plurality of characteristic parts wherein the characteristic parts extracted by the extracting means are stored in the storage means. A digital camera, comprising: a discriminating unit for discriminating whether any one of the above is matched; and an identification display unit for discriminatingly displaying the discrimination result determined by the discriminating unit on the display unit.
請求項21記載のデジタルカメラにおいて、前記記憶手段は更に、前記特徴部位に関する固有名情報あるいは複数の特徴部位が同時に抽出されたときに選択の優先度を定めた優先順位情報の少なくとも一つの情報を記憶し、
前記識別表示手段は前記判別手段が一致していると判別した特徴点に対してその特徴部位に関する前記記憶手段に記憶されている情報を前記表示手段に表示することを特徴とするデジタルカメラ。
22. The digital camera according to claim 21, wherein the storage unit further stores at least one piece of information of unique name information related to the characteristic part or priority information that sets a priority of selection when a plurality of characteristic parts are extracted at the same time. Remember,
The digital camera according to claim 1, wherein said identification display means displays, on said display means, information stored in said storage means relating to a characteristic point of the feature point determined by said determination means to be coincident.
画像データから所定の被写体の特徴点を抽出する抽出手段と、
前記抽出した特徴部位と前記画像データとを関連付けて管理する管理手段とを備えたことを特徴とするデジタルカメラ。
Extracting means for extracting feature points of a predetermined subject from image data;
A digital camera, comprising: a managing unit that manages the extracted characteristic part in association with the image data.
JP2003109886A 2003-04-15 2003-04-15 Digital camera Expired - Fee Related JP4196714B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2003109886A JP4196714B2 (en) 2003-04-15 2003-04-15 Digital camera
US10/814,142 US20040207743A1 (en) 2003-04-15 2004-04-01 Digital camera system
EP04252199A EP1471455B1 (en) 2003-04-15 2004-04-15 Digital camera
DE602004030390T DE602004030390D1 (en) 2003-04-15 2004-04-15 digital camera
US12/289,689 US20090066815A1 (en) 2003-04-15 2008-10-31 Digital camera system
US13/067,502 US20110242363A1 (en) 2003-04-15 2011-06-06 Digital camera system
US13/964,648 US9147106B2 (en) 2003-04-15 2013-08-12 Digital camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003109886A JP4196714B2 (en) 2003-04-15 2003-04-15 Digital camera

Publications (2)

Publication Number Publication Date
JP2004320287A true JP2004320287A (en) 2004-11-11
JP4196714B2 JP4196714B2 (en) 2008-12-17

Family

ID=33470890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003109886A Expired - Fee Related JP4196714B2 (en) 2003-04-15 2003-04-15 Digital camera

Country Status (1)

Country Link
JP (1) JP4196714B2 (en)

Cited By (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301008A (en) * 2004-04-14 2005-10-27 Casio Comput Co Ltd Photographic image printer and program
JP2005318515A (en) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd Digital still camera, image reproducing apparatus, face image display apparatus, and methods of controlling same
JP2006145629A (en) * 2004-11-16 2006-06-08 Fuji Photo Film Co Ltd Imaging apparatus
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2006201282A (en) * 2005-01-18 2006-08-03 Nikon Corp Digital camera
WO2006117874A1 (en) * 2005-04-26 2006-11-09 Canon Kabushiki Kaisha Image capturing apparatus and its control method
JP2007081681A (en) * 2005-09-13 2007-03-29 Canon Inc Image pickup device and method therefor
JP2007080184A (en) * 2005-09-16 2007-03-29 Canon Inc Image processor and method
WO2007060980A1 (en) * 2005-11-25 2007-05-31 Nikon Corporation Electronic camera and image processing device
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus
JP2007148691A (en) * 2005-11-25 2007-06-14 Nikon Corp Image processor
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2007194807A (en) * 2006-01-18 2007-08-02 Fujifilm Corp Object-detecting device, image file recording device, and control method therefor
JP2007232793A (en) * 2006-02-27 2007-09-13 Fujifilm Corp Imaging apparatus
JP2007251754A (en) * 2006-03-17 2007-09-27 Nikon Corp Electronic camera
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2007295390A (en) * 2006-04-26 2007-11-08 Fujifilm Corp Imaging apparatus, and warning method
JP2007329679A (en) * 2006-06-07 2007-12-20 Fujifilm Corp Apparatus and method for image display
JP2008003335A (en) * 2006-06-23 2008-01-10 Casio Comput Co Ltd Imaging apparatus, focus control method, focus control program
JP2008046342A (en) * 2006-08-15 2008-02-28 Fujifilm Corp Photographing device and in-focus position search method
JP2008058553A (en) * 2006-08-31 2008-03-13 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging control program
JP2008078802A (en) * 2006-09-19 2008-04-03 Fujifilm Corp Photographing device and photographing method
JP2008089811A (en) * 2006-09-29 2008-04-17 Canon Inc Imaging apparatus and control method therefor
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2008191683A (en) * 2004-06-03 2008-08-21 Canon Inc Imaging apparatus and imaging method
JP2008193411A (en) * 2007-02-05 2008-08-21 Fujifilm Corp Photographing controller, photographing device, and photographing control method
JP2008206020A (en) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd Imaging device and lens barrel
JP2008278351A (en) * 2007-05-02 2008-11-13 Casio Comput Co Ltd Photographing apparatus, method and program for selecting object
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera
JP2008306747A (en) * 2008-07-17 2008-12-18 Fujifilm Corp Digital camera
JP2009037263A (en) * 2008-11-04 2009-02-19 Canon Inc Point adjusting device, imaging device, control method for focus adjusting device, program, and recording medium
JP2009077266A (en) * 2007-09-21 2009-04-09 Fujifilm Corp Digital camera, focus area selecting method of digital camera
KR100894485B1 (en) * 2007-07-06 2009-04-22 캐논 가부시끼가이샤 Image capturing apparatus and its control method
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
JP2009212666A (en) * 2008-03-03 2009-09-17 Canon Inc Image photographing apparatus and image processing apparatus
JP2009219144A (en) * 2009-05-19 2009-09-24 Casio Comput Co Ltd Imaging apparatus, image recording method, and, program
JP2009229570A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
JP2009229571A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
JP2009246558A (en) * 2008-03-28 2009-10-22 Canon Inc Imaging apparatus, and method for controlling the same
JP2009267787A (en) * 2008-04-25 2009-11-12 Sony Corp Composition determination device, composition determination method, and program
US7672580B2 (en) 2005-03-17 2010-03-02 Canon Kabushiki Kaisha Imaging apparatus and method for controlling display device
JP2010103947A (en) * 2008-10-27 2010-05-06 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2010243843A (en) * 2009-04-07 2010-10-28 Fujifilm Corp Autofocus system
JP2010252052A (en) * 2009-04-15 2010-11-04 Canon Inc Photographing apparatus, photographing method and program
JP2010267278A (en) * 2010-06-22 2010-11-25 Seiko Epson Corp Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color
JP2010282107A (en) * 2009-06-08 2010-12-16 Canon Inc Imaging apparatus and control method therefor
US7860386B2 (en) 2006-06-09 2010-12-28 Sony Corporation Imaging apparatus, control method of imaging apparatus, and computer program
JP2011002814A (en) * 2009-05-19 2011-01-06 Nikon Corp Camera
US7873186B2 (en) 2006-03-10 2011-01-18 Fujifilm Corporation Target-image detecting apparatus and method of controlling same
US7880926B2 (en) 2006-06-20 2011-02-01 Fujifilm Corporation Imaging apparatus performing flash photography for persons
US7884874B2 (en) 2004-03-31 2011-02-08 Fujifilm Corporation Digital still camera and method of controlling same
JP2011095862A (en) * 2009-10-27 2011-05-12 Canon Inc Apparatus and method for processing image and program
US7952618B2 (en) 2006-01-27 2011-05-31 Fujifilm Corporation Apparatus for controlling display of detection of target image, and method of controlling same
WO2011067906A1 (en) * 2009-12-01 2011-06-09 パナソニック株式会社 Imaging device for recognition, and method for controlling same
CN101313565B (en) * 2005-11-25 2011-09-21 株式会社尼康 Electronic camera and image processing device
JP2011186874A (en) * 2010-03-10 2011-09-22 Fujifilm Corp Image processing apparatus for color image data and operation control method thereof
US8031228B2 (en) 2006-02-22 2011-10-04 Sanyo Electric Co., Ltd. Electronic camera and method which adjust the size or position of a feature search area of an imaging surface in response to panning or tilting of the imaging surface
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP2011223174A (en) * 2010-04-06 2011-11-04 Canon Inc Imaging device and method for controlling the same
US8106995B2 (en) 2007-10-05 2012-01-31 Fujifilm Corporation Image-taking method and apparatus
US8145049B2 (en) 2006-05-10 2012-03-27 Canon Kabushiki Kaisha Focus adjustment method, focus adjustment apparatus, and control method thereof
US8228391B2 (en) 2007-02-22 2012-07-24 Panasonic Corporation Image pickup apparatus and lens barrel
US8237803B2 (en) 2007-07-09 2012-08-07 Panasonic Coporation Digital single-lens reflex camera including control section that performs camera shake correction and motion detecting section that detects speed of subject
US8253847B2 (en) 2007-04-04 2012-08-28 Nikon Corporation Digital camera having an automatic focus
US8265474B2 (en) 2008-03-19 2012-09-11 Fujinon Corporation Autofocus system
KR101310230B1 (en) 2007-01-17 2013-09-24 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
US8736691B2 (en) 2006-02-20 2014-05-27 Panasonic Corporation Image pickup apparatus to control an exposure time based on motion of a detected optical image
JP2016082279A (en) * 2014-10-10 2016-05-16 リコーイメージング株式会社 Imaging device, imaging method and program
JP2016114811A (en) * 2014-12-16 2016-06-23 株式会社 日立産業制御ソリューションズ Focus controller, imaging apparatus, and method for controlling focus
JP2018036426A (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Imaging apparatus, method for controlling the same, imaging control device, program, and storage medium

Cited By (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318515A (en) * 2004-03-31 2005-11-10 Fuji Photo Film Co Ltd Digital still camera, image reproducing apparatus, face image display apparatus, and methods of controlling same
US7853140B2 (en) 2004-03-31 2010-12-14 Fujifilm Corporation Digital still camera, image reproducing apparatus, face image display apparatus and methods of controlling same including determination device and decision device
US7884874B2 (en) 2004-03-31 2011-02-08 Fujifilm Corporation Digital still camera and method of controlling same
JP4489608B2 (en) * 2004-03-31 2010-06-23 富士フイルム株式会社 DIGITAL STILL CAMERA, IMAGE REPRODUCTION DEVICE, FACE IMAGE DISPLAY DEVICE, AND CONTROL METHOD THEREOF
JP2005301008A (en) * 2004-04-14 2005-10-27 Casio Comput Co Ltd Photographic image printer and program
JP4506253B2 (en) * 2004-04-14 2010-07-21 カシオ計算機株式会社 Photo image extraction apparatus and program
JP2008191683A (en) * 2004-06-03 2008-08-21 Canon Inc Imaging apparatus and imaging method
US8300139B2 (en) 2004-06-03 2012-10-30 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
US7733412B2 (en) 2004-06-03 2010-06-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
JP2006145629A (en) * 2004-11-16 2006-06-08 Fuji Photo Film Co Ltd Imaging apparatus
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2006201282A (en) * 2005-01-18 2006-08-03 Nikon Corp Digital camera
JP4674471B2 (en) * 2005-01-18 2011-04-20 株式会社ニコン Digital camera
US7672580B2 (en) 2005-03-17 2010-03-02 Canon Kabushiki Kaisha Imaging apparatus and method for controlling display device
US7636123B2 (en) 2005-04-26 2009-12-22 Canon Kabushiki Kaisha Image capturing apparatus with light emission controlling mechanism and method of controlling the image capturing apparatus
WO2006117874A1 (en) * 2005-04-26 2006-11-09 Canon Kabushiki Kaisha Image capturing apparatus and its control method
JP4659569B2 (en) * 2005-09-13 2011-03-30 キヤノン株式会社 Imaging device
JP2007081681A (en) * 2005-09-13 2007-03-29 Canon Inc Image pickup device and method therefor
JP2007080184A (en) * 2005-09-16 2007-03-29 Canon Inc Image processor and method
US8194935B2 (en) 2005-09-16 2012-06-05 Canon Kabushiki Kaisha Image processing apparatus and method
JP2007142866A (en) * 2005-11-18 2007-06-07 Fujifilm Corp Imaging apparatus
JP4572815B2 (en) * 2005-11-18 2010-11-04 富士フイルム株式会社 Imaging apparatus and imaging method
US7868917B2 (en) 2005-11-18 2011-01-11 Fujifilm Corporation Imaging device with moving object prediction notification
JP2007148691A (en) * 2005-11-25 2007-06-14 Nikon Corp Image processor
WO2007060980A1 (en) * 2005-11-25 2007-05-31 Nikon Corporation Electronic camera and image processing device
CN101313565B (en) * 2005-11-25 2011-09-21 株式会社尼康 Electronic camera and image processing device
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
CN102231801B (en) * 2005-11-25 2013-07-10 株式会社尼康 Electronic camera and image processing device
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2007194807A (en) * 2006-01-18 2007-08-02 Fujifilm Corp Object-detecting device, image file recording device, and control method therefor
JP4521360B2 (en) * 2006-01-18 2010-08-11 富士フイルム株式会社 Object detection device, image file recording device, and control method thereof
US7952618B2 (en) 2006-01-27 2011-05-31 Fujifilm Corporation Apparatus for controlling display of detection of target image, and method of controlling same
US8736691B2 (en) 2006-02-20 2014-05-27 Panasonic Corporation Image pickup apparatus to control an exposure time based on motion of a detected optical image
US8031228B2 (en) 2006-02-22 2011-10-04 Sanyo Electric Co., Ltd. Electronic camera and method which adjust the size or position of a feature search area of an imaging surface in response to panning or tilting of the imaging surface
US7889985B2 (en) 2006-02-27 2011-02-15 Fujifilm Corporation Imaging apparatus
JP2007232793A (en) * 2006-02-27 2007-09-13 Fujifilm Corp Imaging apparatus
JP4644883B2 (en) * 2006-02-27 2011-03-09 富士フイルム株式会社 Imaging device
US7873186B2 (en) 2006-03-10 2011-01-18 Fujifilm Corporation Target-image detecting apparatus and method of controlling same
JP4742927B2 (en) * 2006-03-17 2011-08-10 株式会社ニコン Electronic camera
JP2007251754A (en) * 2006-03-17 2007-09-27 Nikon Corp Electronic camera
JP2007249132A (en) * 2006-03-20 2007-09-27 Casio Comput Co Ltd Imaging apparatus, automatic focusing method, and program
JP2007295390A (en) * 2006-04-26 2007-11-08 Fujifilm Corp Imaging apparatus, and warning method
US8145049B2 (en) 2006-05-10 2012-03-27 Canon Kabushiki Kaisha Focus adjustment method, focus adjustment apparatus, and control method thereof
JP4683337B2 (en) * 2006-06-07 2011-05-18 富士フイルム株式会社 Image display device and image display method
JP2007329679A (en) * 2006-06-07 2007-12-20 Fujifilm Corp Apparatus and method for image display
US7860386B2 (en) 2006-06-09 2010-12-28 Sony Corporation Imaging apparatus, control method of imaging apparatus, and computer program
US7880926B2 (en) 2006-06-20 2011-02-01 Fujifilm Corporation Imaging apparatus performing flash photography for persons
JP2008003335A (en) * 2006-06-23 2008-01-10 Casio Comput Co Ltd Imaging apparatus, focus control method, focus control program
JP2008046342A (en) * 2006-08-15 2008-02-28 Fujifilm Corp Photographing device and in-focus position search method
JP2008058553A (en) * 2006-08-31 2008-03-13 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging control program
JP2008078802A (en) * 2006-09-19 2008-04-03 Fujifilm Corp Photographing device and photographing method
JP4621992B2 (en) * 2006-09-19 2011-02-02 富士フイルム株式会社 Imaging apparatus and imaging method
JP2008089811A (en) * 2006-09-29 2008-04-17 Canon Inc Imaging apparatus and control method therefor
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
US8385607B2 (en) 2006-11-21 2013-02-26 Sony Corporation Imaging apparatus, image processing apparatus, image processing method and computer program
KR101310230B1 (en) 2007-01-17 2013-09-24 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2008193411A (en) * 2007-02-05 2008-08-21 Fujifilm Corp Photographing controller, photographing device, and photographing control method
US8150208B2 (en) 2007-02-05 2012-04-03 Fujifilm Corporation Image pickup apparatus having stability checker for specific object feature value, and program and method for control of image pickup including checking stability of specific object feature value
JP2008206020A (en) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd Imaging device and lens barrel
US8411155B2 (en) 2007-02-22 2013-04-02 Panasonic Corporation Image pickup apparatus and lens barrel
US8228391B2 (en) 2007-02-22 2012-07-24 Panasonic Corporation Image pickup apparatus and lens barrel
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera
US8253847B2 (en) 2007-04-04 2012-08-28 Nikon Corporation Digital camera having an automatic focus
JP2008278351A (en) * 2007-05-02 2008-11-13 Casio Comput Co Ltd Photographing apparatus, method and program for selecting object
KR100894485B1 (en) * 2007-07-06 2009-04-22 캐논 가부시끼가이샤 Image capturing apparatus and its control method
US8928761B2 (en) 2007-07-09 2015-01-06 Panasonic Corporation Digital camera
US8237803B2 (en) 2007-07-09 2012-08-07 Panasonic Coporation Digital single-lens reflex camera including control section that performs camera shake correction and motion detecting section that detects speed of subject
JP2009077266A (en) * 2007-09-21 2009-04-09 Fujifilm Corp Digital camera, focus area selecting method of digital camera
US8106995B2 (en) 2007-10-05 2012-01-31 Fujifilm Corporation Image-taking method and apparatus
US8384792B2 (en) 2007-11-02 2013-02-26 Sony Corporation Imaging apparatus, method for controlling the same, and program
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
US8531547B2 (en) 2008-03-03 2013-09-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US8223216B2 (en) 2008-03-03 2012-07-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009212666A (en) * 2008-03-03 2009-09-17 Canon Inc Image photographing apparatus and image processing apparatus
JP2009229571A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
JP2009229570A (en) * 2008-03-19 2009-10-08 Fujinon Corp Autofocus system
US8265474B2 (en) 2008-03-19 2012-09-11 Fujinon Corporation Autofocus system
US9894280B2 (en) 2008-03-28 2018-02-13 Canon Kabushiki Kaisha Imaging apparatus for displaying selected face in in-focus state and method for controlling imaging apparatus
US8184192B2 (en) 2008-03-28 2012-05-22 Canon Kabushiki Kaisha Imaging apparatus that performs an object region detection processing and method for controlling the imaging apparatus
JP2009246558A (en) * 2008-03-28 2009-10-22 Canon Inc Imaging apparatus, and method for controlling the same
US9679394B2 (en) 2008-04-25 2017-06-13 Sony Corporation Composition determination device, composition determination method, and program
US8594390B2 (en) 2008-04-25 2013-11-26 Sony Corporation Composition determination device, composition determination method, and program
JP2009267787A (en) * 2008-04-25 2009-11-12 Sony Corp Composition determination device, composition determination method, and program
JP2008306747A (en) * 2008-07-17 2008-12-18 Fujifilm Corp Digital camera
JP2010103947A (en) * 2008-10-27 2010-05-06 Canon Inc Image processing apparatus, imaging apparatus, and image processing method
JP2009037263A (en) * 2008-11-04 2009-02-19 Canon Inc Point adjusting device, imaging device, control method for focus adjusting device, program, and recording medium
JP2010243843A (en) * 2009-04-07 2010-10-28 Fujifilm Corp Autofocus system
JP2010252052A (en) * 2009-04-15 2010-11-04 Canon Inc Photographing apparatus, photographing method and program
JP4577445B2 (en) * 2009-05-19 2010-11-10 カシオ計算機株式会社 Imaging apparatus, image recording method, and program
JP2009219144A (en) * 2009-05-19 2009-09-24 Casio Comput Co Ltd Imaging apparatus, image recording method, and, program
JP2011002814A (en) * 2009-05-19 2011-01-06 Nikon Corp Camera
JP2010282107A (en) * 2009-06-08 2010-12-16 Canon Inc Imaging apparatus and control method therefor
JP2011095862A (en) * 2009-10-27 2011-05-12 Canon Inc Apparatus and method for processing image and program
JP5400171B2 (en) * 2009-12-01 2014-01-29 パナソニック株式会社 Recognizing imaging apparatus and control method thereof
CN102301693A (en) * 2009-12-01 2011-12-28 松下电器产业株式会社 Imaging device for recognition, and method for controlling same
CN102301693B (en) * 2009-12-01 2014-09-24 松下电器产业株式会社 Imaging device for recognition, and method for controlling same
US8860875B2 (en) 2009-12-01 2014-10-14 Panasonic Intellectual Property Corporation Of America Imaging device for recognition and method of controlling the same
WO2011067906A1 (en) * 2009-12-01 2011-06-09 パナソニック株式会社 Imaging device for recognition, and method for controlling same
JP2011186874A (en) * 2010-03-10 2011-09-22 Fujifilm Corp Image processing apparatus for color image data and operation control method thereof
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP2011223174A (en) * 2010-04-06 2011-11-04 Canon Inc Imaging device and method for controlling the same
JP2010267278A (en) * 2010-06-22 2010-11-25 Seiko Epson Corp Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color
JP2016082279A (en) * 2014-10-10 2016-05-16 リコーイメージング株式会社 Imaging device, imaging method and program
JP2016114811A (en) * 2014-12-16 2016-06-23 株式会社 日立産業制御ソリューションズ Focus controller, imaging apparatus, and method for controlling focus
JP2018036426A (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Imaging apparatus, method for controlling the same, imaging control device, program, and storage medium

Also Published As

Publication number Publication date
JP4196714B2 (en) 2008-12-17

Similar Documents

Publication Publication Date Title
JP4196714B2 (en) Digital camera
JP2004317699A (en) Digital camera
JP2004320286A (en) Digital camera
EP1471455B1 (en) Digital camera
EP1522952B1 (en) Digital camera
JP4182117B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5055166B2 (en) Eye open / closed degree determination device, method and program, and imaging device
JP4078334B2 (en) Image processing apparatus and image processing method
CN102843509B (en) Image processing device and image processing method
JP2004320285A (en) Digital camera
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010068128A (en) Image capturing apparatus, existence or nonexistence decision method of image area, and program
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
JP2004320284A (en) Digital camera
JP2010014783A (en) Photographing device
JP2007067934A (en) Imaging apparatus and its control method
JP6033006B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP5383308B2 (en) Image processing device
JP2003289468A (en) Imaging apparatus
JP2006074498A (en) Image processor and imaging apparatus
JP4254467B2 (en) Digital camera
CN111314608B (en) Image focusing prompting method, computer device and computer readable storage medium
JP7342883B2 (en) Imaging control device, imaging device, imaging control method
JP2008167028A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080529

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080922

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4196714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141010

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees