JP2004192129A - Method and device for extracting facial area - Google Patents

Method and device for extracting facial area Download PDF

Info

Publication number
JP2004192129A
JP2004192129A JP2002356794A JP2002356794A JP2004192129A JP 2004192129 A JP2004192129 A JP 2004192129A JP 2002356794 A JP2002356794 A JP 2002356794A JP 2002356794 A JP2002356794 A JP 2002356794A JP 2004192129 A JP2004192129 A JP 2004192129A
Authority
JP
Japan
Prior art keywords
skin color
light source
area
accuracy
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002356794A
Other languages
Japanese (ja)
Other versions
JP4200428B2 (en
Inventor
Manabu Hyodo
学 兵藤
Makoto Tsugita
誠 次田
Koichi Sakamoto
浩一 坂本
Koji Ichikawa
幸治 市川
Hirokazu Kobayashi
寛和 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002356794A priority Critical patent/JP4200428B2/en
Publication of JP2004192129A publication Critical patent/JP2004192129A/en
Application granted granted Critical
Publication of JP4200428B2 publication Critical patent/JP4200428B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for extracting a facial area by which the facial area can be extracted with precision under various photographing situations in consideration of an error in determining a photographing light source, and also to provide a device therefor. <P>SOLUTION: Image data acquired with a digital camera is analyzed so as to determine the photographing light source of the image based on the color information, etc. (step S114). Lightnesses obtained under the respective light sources are assumed by the characteristic of an artificial light source such as an electric bulb, or a fluorescent lamp, or a natural light source such as outdoors in shade, or fine weather, so that accuracy in determining the light sources is determined by the luminance of a subject (step S116). A flesh color table for detecting the optimum flesh color is automatically selected based on information by determined light source and subject luminance information (step S118). An area having the hue of the flesh color in the image is detected through the use of the flesh color table, and, then, the acquired flesh color area is divided by color saturation. Shape recognition is performed about each flesh color area divided by color saturation, so that the final facial area is extracted. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は顔領域抽出方法及び装置に係り、特にデジタルカメラ等により取得したカラー画像中に存在する人物の顔に相当する領域を抽出するための方法及び装置に関する。
【0002】
【従来の技術】
人物写真を鑑賞するときに最も注目される部位は人物の顔である。人物の顔が適正な明るさ及び色で再現されるように、画像内の人物の顔に相当する領域を自動的に検出する技術が提案されている(特許文献1)。特許文献1に開示された方法によれば、撮影時の照明条件に応じて顔面色分布モデルを選択し、顔面抽出を行っている。
【0003】
【特許文献1】
特開2001−167273
【0004】
【発明が解決しようとする課題】
しかしながら、特許文献1は照明条件の判定に関して、カメラの撮影条件(ストロボON/OFF,ホワイトバランス,ホワイロバランスモード,絞り、シャッタースピード,AGC,AE,ガンマ,ペデスタルレベル)を利用すると述べるに留まり、実際に何が問題でどのように顔面色分布モデルを設定するかについて開示していない。
【0005】
一般的なデジタルカメラに搭載されているオートホワイトバランス(AWB)機能は、撮像した画像データから光源種を自動判別するが、照明条件を正確に自動で把握することは困難であり、ある程度照明条件判定の誤差を許容する必要がある。撮影光源の検出ばらつきを考慮すると、広い範囲の肌色色相で顔抽出する必要がある。これは、AWB結果後のデータにおいても言える。
【0006】
すなわち、AWBの処理においては、光源種を正しく判定することは不可能であるから、推定された光源に対してある程度ホワイトバランスの補正量を弱めている。この結果として、光源色が完全には補正されずに残る。つまり、白が白にならず、結果として照明光源により肌色がばらつく。したがって、広い範囲の肌色色相で顔抽出すると、顔以外の物体も誤検出する頻度が増えてしまう問題がある。
【0007】
本発明はこのような事情に鑑みてなされたもので、照明光源の検出ばらつきを考慮して、様々な撮影状況下において精度よく顔領域を抽出することができる顔領域抽出方法及び装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
前記目的を達成するために本発明に係る顔領域抽出方法は、画像内から人物の顔に相当する領域を抽出する方法であって、画像データに基づいて撮影時の光源を判定する光源判定工程と、前記光源判定工程による光源判定の確度を求める確度決定工程と、肌色検出に必要な肌色の色相範囲を定める肌色条件を前記光源判定工程から得られた光源情報及び前記確度決定工程から得られた確度情報に応じて設定する肌色条件設定工程と、前記肌色条件設定工程で設定された肌色条件に従って画像内から肌色の色相を有する領域を検出する肌色領域検出工程と、を含むことを特徴とする。
【0009】
本発明によれば、画像データを解析し、その色情報などから当該画像の撮影光源を推定する。撮影光源を完璧に自動判別することは困難であるため、推定した光源の確からしさ(確度)を考慮して、光源判定の誤差を許容するように肌色条件を可変設定している。肌色条件は、肌色として検出されるべき色相の条件を規定したものであり、光源に応じてこの肌色条件が最適化される。これにより、全ての光源に共通の肌色条件を適用する従来の方法と比較して肌色の誤検出を軽減でき、精度のよい顔抽出が可能となる。
【0010】
肌色条件をある表色座標系の領域(エリアや体積)で表したとすると、推定された撮影光源とその確度によって肌色条件領域の大きさや中心位置又は形状などが変更される。光源判定の確度が高ければ、肌色条件領域を比較的小さく設定することができるので、肌色の検出精度が向上する。
【0011】
本発明の一態様に係る顔領域抽出方法は、被写体輝度を検出する被写体輝度検出工程を含み、前記確度決定工程は、前記被写体輝度検出工程で検出した被写体輝度に応じて前記光源判定の確度を決定することを特徴とする。
【0012】
電球(タングステン)や蛍光灯などの人工光源の特性、或いは屋外日陰、晴天などの自然光源の特性から、それぞれの光源下で得られる被写体輝度(明るさ)を想定できるため、実際の被写体輝度によって光源判定の確度を定めることができる。
【0013】
本発明の他の態様によれば、前記肌色領域検出工程は、前記肌色条件に基づいて検出される肌色部分を更に彩度によって分割する彩度分割工程を含むことを特徴とする。
【0014】
また、前記彩度分割工程で分割された彩度別の肌色領域の形状に基づいて顔領域を決定する顔領域決定工程を含む態様がある。
【0015】
画像内で肌色の色相を有する領域(肌色領域)を更に彩度によって細かく領域分けして、その形状や大きさを認識することにより、顔領域の判定が容易になる。
【0016】
彩度分割された肌色領域(顔領域の候補)の中から真の顔領域を特定するには、その領域の形状に基づいて顔領域を絞り込むことが好ましい。例えば、人物の顔はおよそ円形或いは楕円形に近いものと考えられ、顔領域か否かを判別するための縦横比を定めておくことができる。顔領域の各候補について規定の縦横比から極端に外れるもの(極端に細長いものなど)は、顔でないものとして排除され、規定の縦横比に近いものについて顔であると判断される。
【0017】
上記方法発明を具現化する装置を提供するため、本発明に係る顔領域抽出装置は、画像内から人物の顔に相当する領域を抽出する装置であって、画像データに基づいて撮影時の光源を判定する光源判定手段と、前記光源判定手段による光源判定の確度を求める確度決定手段と、肌色検出に必要な肌色の色相範囲を定める肌色条件を前記光源判定手段から得られた光源情報及び前記確度決定手段から得られた確度情報に応じて設定する肌色条件設定手段と、前記肌色条件設定手段で設定された肌色条件に従って画像内から肌色の色相を有する領域を検出する肌色領域検出手段と、を含むことを特徴とする。
【0018】
本発明の顔領域抽出装置は、デジタルカメラやビデオカメラなどの電子撮影装置(電子カメラ)の信号処理部に組み込むことが可能であるとともに、電子カメラで記録した画像データを再生表示又はプリント出力する画像処理装置などに組み込むことが可能である。
【0019】
また、本発明の顔領域抽出装置は、コンピュータによって実現することが可能であり、上述した顔領域抽出方法の各工程をコンピュータによって実現させるためのプログラムをCD−ROMや磁気ディスクその他の記録媒体に記録し、記録媒体を通じて当該プログラムを第三者に提供したり、インターネットなどの通信回線を通じて当該プログラムのダウンロードサービスを提供することも可能である。
【0020】
【発明の実施の形態】
以下添付図面に従って本発明に係る顔領域抽出方法及び装置の好ましい実施の形態について詳説する。
【0021】
図1は本発明の実施形態に係る電子カメラの構成を示すブロック図である。このカメラ10は、被写体の光学像をデジタル画像データに変換して記録メディア12に記録するデジタルカメラであり、撮影により得られた画像信号を処理する信号処理手段の一部に本発明の顔領域抽出装置が用いられている。
【0022】
カメラ10全体の動作は、カメラ内蔵の中央処理装置(CPU)14によって統括制御される。 CPU14は、所定のプログラムに従って本カメラシステムを制御する制御手段として機能するとともに、自動露出(AE)演算、自動焦点調節(AF)演算、及びオートホワイトバランス(AWB)制御、顔領域抽出演算など各種演算を実施する演算手段として機能する。
【0023】
CPU14はバス16を介してROM20及びメモリ(RAM)22と接続されている。ROM20にはCPU14が実行するプログラム及び制御に必要な各種データ等が格納されている。メモリ22はプログラムの展開領域及びCPU14の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。
【0024】
また、CPU14にはEEPROM24が接続されている。EEPROM24は、顔領域抽出処理に必要な肌色判定用テーブル(肌色テーブル)、AE、AF及びAWB等の制御に必要なデータ或いはユーザが設定したカスタマイズ情報などを記憶している不揮発性の記憶手段であり、電源OFF時においても記憶内容が保持される。CPU14は必要に応じてEEPROM24のデータを参照して演算等を行う。なお、ROM20は書換不能なものであってもよいし、EEPROMのように書換可能なものでもよい。
【0025】
カメラ10にはユーザが各種の指令を入力するための操作部30が設けられている。操作部30は、マクロボタン31、シャッターボタン32、ズームスイッチ33など各種操作部を含む。
【0026】
マクロボタン31は、近距離撮影に適したマクロモードの設定(ON)/解除(OFF)を行う操作手段である。マクロモードは、被写界深度を比較的浅くして背景を美しくぼかしたクローズアップ写真を撮影できる。マクロボタン31の押下によってカメラ10がマクロモードに設定されると、近距離撮影に適したフォーカス制御が行われ、被写体距離が約20cm〜80cmの範囲で撮影が可能となる。
【0027】
シャッターボタン32は、撮影開始の指示を入力する操作手段であり、半押し時にONするS1 スイッチと、全押し時にONするS2 スイッチとを有する二段ストローク式のスイッチで構成されている。S1 オンにより、AE及びAF処理が行われ、S2 オンによって記録用の露光が行われる。ズームスイッチ33は、撮影倍率や再生倍率を変更するための操作手段である。
【0028】
また、図示しないが、操作部30には、撮影モードと再生モードとを切り換えるためのモード選択手段、撮影目的に応じて最適な動作モード(連写モード、オート撮影モード、マニュアル撮影モード、人物モード、風景モード、夜景モードなど)を設定する撮影モード設定手段、液晶モニタ40にメニュー画面を表示させるメニューボタン、メニュー画面から所望の項目を選択する十字ボタン(カーソル移動操作手段)、選択項目の確定や処理の実行を指令するOKボタン、選択項目など所望の対象の消去や指示内容の取消し、或いは1つ前の操作状態に戻らせる指令を入力するキャンセルボタンなどの操作手段も含まれる。なお、操作部30の中には、プッシュ式のスイッチ部材、ダイヤル部材、レバースイッチなどの構成によるものに限らず、メニュー画面から所望の項目を選択するようなユーザインターフェースによって実現されるものも含まれている。
【0029】
操作部30からの信号はCPU14に入力される。CPU14は操作部30からの入力信号に基づいてカメラ10の各回路を制御し、例えば、レンズ駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、液晶モニタ40の表示制御などを行う。
【0030】
液晶モニタ40は、撮影時に画角確認用の電子ファインダーとして使用できるとともに、記録済み画像を再生表示する手段として利用される。また、液晶モニタ40は、ユーザインターフェース用表示画面としても利用され、必要に応じてメニュー情報や選択項目、設定内容などの情報が表示される。なお、液晶ディスプレイに代えて、有機ELなど他の方式の表示装置(表示手段)を用いることも可能である。
【0031】
次に、カメラ10の撮影機能について説明する。
【0032】
カメラ10は撮影光学系としての撮影レンズ42とCCD固体撮像素子(以下、CCDという。)44とを備えている。なお、CCD44に代えて、MOS型固体撮像素子など他の方式の撮像素子を用いることも可能である。撮影レンズ42は、電動式のズームレンズで構成されており、詳細な光学構成については図示しないが、主として倍率変更(焦点距離可変)作用をもたらす変倍レンズ群及び補正レンズ群と、フォーカス調整に寄与するフォーカスレンズとを含む。
【0033】
撮影者によってズームスイッチ33が操作されると、そのスイッチ操作に応じてCPU14からズーム駆動部46に対して制御信号が出力される。ズーム駆動部46は、動力源となるモータ(ズームモータ)とその駆動回路とを含む電動駆動手段である。ズーム駆動部46のモータ駆動回路は、CPU14からの制御信号に基づいてレンズ駆動用の信号を生成し、ズームモータに与える。こうして、モータ駆動回路から出力されるモータ駆動電圧によってズームモータが作動し、撮影レンズ42内の変倍レンズ群及び補正レンズ群が光軸に沿って前後移動することにより、撮影レンズ42の焦点距離(光学ズーム倍率)が変更される。
【0034】
本例では、ワイド(広角)端からテレ(望遠)端までのズーム動作範囲内において撮影レンズ42の焦点距離を10段階で可変できるものとする。撮影者は撮影目的に応じて所望の焦点距離を選択して撮影を行うことができる。
【0035】
撮影レンズ42のズーム位置(焦点距離に相当)は、ズーム位置検出センサ48によって検出され、その検出信号はCPU14に通知される。CPU14はズーム位置検出センサ48からの信号によって現在のズーム位置(すなわち、焦点距離)を把握できる。ズーム位置検出センサ48は、ズームモータ等の回転によりパルスを発生する回路であってもよいし、レンズ鏡胴の外周に位置検出エンコード板を配置した構成などであってもよく、本発明の実施に際しては、特に限定されるものではない。
【0036】
撮影レンズ42を通過した光は、図示せぬ絞り機構を介して光量が調節された後、CCD44に入射する。CCD44の受光面には多数のフォトセンサ(受光素子)が平面的に配列され、各フォトセンサに対応して赤(R)、緑(G)、青(B)の原色カラーフィルタが所定の配列構造(ベイヤー、Gストライプなど)で配置されている。
【0037】
CCD44の受光面に結像された被写体像は、各フォトセンサによって入射光量に応じた量の信号電荷に変換される。CCD44は、シャッターゲートパルスのタイミングによって各フォトセンサの電荷蓄積時間(シャッタースピード)を制御する電子シャッター機能を有している。
【0038】
CCD44の各フォトセンサに蓄積された信号電荷は、CCDドライバ50から与えられるパルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出される。CCD44から出力された画像信号は、アナログ処理部52に送られる。アナログ処理部52は、CDS(相関二重サンプリング)回路及びゲイン調整回路を含む先行処理部であり、このアナログ処理部52において、サンプリング処理並びにR,G,Bの各色信号に色分離処理され、各色信号の信号レベルの調整(プリホワイトバランス処理)が行われる。
【0039】
アナログ処理部52から出力された画像信号はA/D変換器54によってデジタル信号に変換された後、信号処理部56を介してメモリ22に格納される。このときメモリ22に記憶される画像データは、CCD44から出力された画像信号のA/D変換出力をそのまま(未加工のまま)記録したものであり、ガンマ変換や同時化などの信号処理が行われていない画像データである(以下、CCDRAWデータという)。ただし、「未加工のデータ」といっても、一切の信号処理を排除するものではなく、例えば、撮像素子の欠陥画素(キズ)のデータを補間する欠陥画素補正処理を行って得られた画像データなどについては汎用フォーマットに展開されていないという点でCCDRAWデータの概念に含まれるものとする。
【0040】
タイミングジェネレータ(TG)58は、CPU14の指令に従ってCCDドライバ50、アナログ処理部52及びA/D変換器54に対してタイミング信号を与えており、このタイミング信号によって各回路の同期がとられている。
【0041】
信号処理部56は、メモリ22の読み書きを制御するメモリコントローラを兼ねたデジタル信号処理ブロックである。信号処理部56は、AE/AF/AWB処理を行うオート演算部と、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して各点の色を計算する処理回路)、ホワイトバランス回路、ガンマ変換回路、輝度・色差信号生成回路、輪郭補正回路、コントラスト補正回路等を含む画像処理手段であり、CPU14からのコマンドに従ってメモリ22を活用しながら画像信号を処理する。
【0042】
メモリ22に格納されたCCDRAWデータは、バス16を介して信号処理部56に送られる。信号処理部56に入力された画像データは、ホワイトバランス調整処理、ガンマ変換処理、輝度信号(Y信号)及び色差信号(Cr,Cb 信号)への変換処理(YC処理)など、所定の信号処理が施された後、メモリ22に格納される。
【0043】
撮影画像をモニタ出力する場合、メモリ22から画像データが読み出され、表示回路60に転送される。表示回路60に送られた画像データは表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換された後、液晶モニタ40に出力される。CCD44から出力される画像信号によってメモリ22内の画像データが定期的に書き換えられ、その画像データから生成される映像信号が液晶モニタ40に供給されることにより、撮像中の映像(スルー画)がリアルタイムに液晶モニタ40に表示される。撮影者は液晶モニタ40に表示される映像(いわゆるスルームービー)によって画角(構図)を確認できる。
【0044】
撮影者が画角を決めてシャッターボタン32を押下すると、CPU14はこれを検知し、シャッターボタン32の半押し(S1 ON)に応動してAE処理及びAF処理を行い、シャッターボタン32の全押し(S2 =ON)に応動して記録用の画像を取り込むためのCCD露光及び読み出し制御を開始する。
【0045】
本カメラ10におけるAF制御は、例えば映像信号のG信号の高周波成分が極大になるようにフォーカスレンズ(撮影レンズ42を構成するレンズ光学系のうちフォーカス調整に寄与する移動レンズ)を移動させるコントラストAFが適用される。すなわち、AF演算部は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面内(例えば、画面中央部)に予め設定されているフォーカス対象エリア内の信号を切り出すAFエリア抽出部、及びAFエリア内の絶対値データを積算する積算部から構成される。
【0046】
AF演算部で求めた積算値のデータはCPU14に通知される。CPU14は、AFモータを含むフォーカス駆動部62を制御してフォーカスレンズを移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)の演算を行い、各AF検出ポイントで算出されたAF評価値からその値が極大となるレンズ位置を合焦位置として決定する。そして、求めた合焦位置にフォーカスレンズを移動させるようにフォーカス駆動部62を制御する。
【0047】
また、AE制御に関連して、AE演算部は1画面を複数のエリア(例えば、8×8)に分割し、分割エリアごとにRGB信号を積算する回路を含み、その積算値をCPU14に提供する。CPU14は、AE演算部から得た積算値に基づいて重み付け加算を行い、被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。
【0048】
次に、撮影EV値の算出方法について説明する。
【0049】
撮影画像の1画面を複数のエリア(例えば8×8の64ブロック)に分割し、分割エリアごとにR、G、B信号から得た積算値に基づいて各分割エリアのEV値(EVi)を求める。続いて、図2に示すように撮影モードに対応して各分割エリアのEV値に重み付けを行い、画面全体のEV′値を次式によって算出する。
【0050】
【数1】EV′=log{Σ(W×2EVi )/ΣW
ただし、i:0〜63(8×8の分割エリアを示す添え字)
:撮影モードに応じた各分割エリアごとの重み係数
すなわち、撮影モードがオート/人物モードの場合には、図2(A)の重み付け係数に示すように中央重点測光方式となり、風景モードの場合には、図2(B)に示すように最外周に位置する分割エリアの重み付けを減じた測光方式となり、夜景モードの場合には、図2(C)に示すように平均測光方式となる。
【0051】
上記のように算出したEV′値に対し、更に、次式に示すように撮影モードに応じた露出補正ΔEVを行って撮影EV値を求める。
【0052】
【数2】EV=EV′−ΔEV
なお、ΔEVは、例えば、人物モードの場合にはΔEV=0、風景モード、夜景モードの場合にはΔEV=0.3とする。
【0053】
上記のようにして求めた撮影EV値に基づいて撮影時の絞り値とシャッタースピードを決定する。
【0054】
そして、シャッターボタン32の全押し時に前記決定した絞り値になるように絞り駆動部(不図示)を介して絞り機構を駆動し、また、決定したシャッタースピードとなるように電子シャッターによって電荷の蓄積時間を制御する。
【0055】
シャッターボタン32の全押し(S2 =ON)に応動して取り込まれた画像データは、図1に示した信号処理部56においてYC処理その他の所定の信号処理を経た後、圧縮伸張回路64において所定の圧縮フォーマット(例えば、JPEG方式) に従って圧縮される。圧縮された画像データは、メディアインターフェース部66を介して記録メディア12に記録される。圧縮形式はJPEGに限定されず、MPEGその他の方式を採用してもよい。
【0056】
画像データを保存する手段は、スマートメディア(商標)、コンパクトフラッシュ(商標)などで代表される半導体メモリカード、磁気ディスク、光ディスク、光磁気ディスクなど、種々の媒体を用いることができる。また、リムーバブルメディアに限らず、カメラ10に内蔵された記録媒体(内部メモリ)であってもよい。
【0057】
モード選択手段によって再生モードが選択されると、記録メディア12に記録されている最終の画像ファイル(最後に記録したファイル)が読み出される。記録メディア12から読み出された画像ファイルのデータは、圧縮伸張回路64によって伸張処理され、表示回路60を介して液晶モニタ40に出力される。
【0058】
再生モードの一コマ再生時に十字ボタンを操作することにより、順方向又は逆方向にコマ送りすることができ、コマ送りされた次のファイルが記録メディア12から読み出され、上記と同様にして画像が再生される。
【0059】
図3は、本例のカメラ10における顔抽出処理に関係する要部ブロック図である。図3中図1で説明した構成と共通する部分には同一の符号を付し、その説明は省略する。
【0060】
図3において、上段の積算回路70とホワイトバランス回路72は、通常のオートホワイトバランス処理に使用している処理系である。また、その下段に示した積算回路74、ホワイトバランス回路76及び同時化回路78は、顔抽出アルゴリズムの前処理を実施するための処理部(以下、前処理系という。)である。
【0061】
シャッターボタン32の全押し時にA/D変換器18から出力されたCCDRAWデータはメモリ22に格納され、メモリ22から積算回路70に送られる。積算回路70は、1画面内を複数のエリア(例えば、8×8の64ブロック)に分割し、エリアごとにRGB信号の色別の平均積算値を算出する回路を含み、その算出結果は基準光源(デーライト)を想定したホワイトバランス回路72に送られる。ホワイトバランス回路72でゲイン調整された信号はCPU14に提供される。
【0062】
CPU14は、Rの積算値、Bの積算値、Gの積算値を得て、R/G、B/Gの比を求め、これらR/G、B/Gの値と、AE演算による撮影EV値の情報(被写体輝度LV値=EV値)に基づいてシーン判別(光源種の判別)を行い、シーンに適した所定のホワイトバランス調整値(光源の雰囲気を残すような設定)に従って、信号処理部56内のホワイトバランス回路80及び前処理系のホワイトバランス回路76のアンプゲインを制御し、各色チャンネルの信号に補正をかける。光源種の判別方法及び光源の雰囲気を残すホワイトバランス制御方法については、特開2000−224608号公報等に開示された手法を用いることができる。
【0063】
また、S2 =ONに応じて取得されたCCDRAWデータはメモリ22から信号処理部56及び顔抽出用の前処理系の積算回路74に送られる。前処理系の積算回路74は、1画面を例えば、130×190のエリアに分割し、エリアごとに積算値を算出する。積算回路74の算出結果は、ホワイトバランス回路76に送られ、ここでAWBを反映させたホワイトバランス処理が行われる。AWBを効かせたデータは、同時化回路78に送られ、ここでR,G,Bについてそれぞれ同画素数のデータ(3面データ)が生成される。
【0064】
CPU14は、同時化回路78で生成されたRGBの3面データに基づいて、肌色検出、彩度分割、顔候補抽出、並びに顔候補の領域の形状に基づく顔領域の特定の処理を実行する。顔抽出のアルゴリズムについて詳細は後述する。
【0065】
その一方、メモリ22から信号処理部56に送られたCCDRAWデータは、ホワイトバランス回路80によりAWBを反映させた処理が行われた後、ガンマ変換回路82に送られる。ガンマ変換回路82は、ホワイトバランス調整されたRGB信号が所望のガンマ特性となるように入出力特性を変更し、輝度/色差信号生成回路84に出力する。
【0066】
輝度/色差信号生成回路84は、ガンマ補正されたR、G、B信号から輝度信号Yとクロマ信号Cr、Cbとを作成する。これらの輝度信号Yとクロマ信号Cr、Cb(YC信号)は、圧縮伸張回路64によってJPEGその他の所定のフォーマットで圧縮され、記録メディア12に記録される。
【0067】
次に、本実施形態に係るカメラ10に搭載されている顔抽出機能について説明する。
【0068】
図4は、肌色として抽出されるべき色相の範囲を定めた肌色テーブルを決定するシーケンスを示したフローチャートである。同図に示したように、シャッターボタン32のS1 =ON確定によってAE及びAF処理を実行し(ステップS110)、S2 =ONに応動してCCDRAWデータを取り込み、これをメモリ22に一旦記録する(ステップS112)。
【0069】
その後、この取得したCCDRAWデータに基づいて光源種別の判断を行う(ステップS114)。また、ステップS110のAE処理で求めた被写体輝度の情報を取得し(ステップS116)、ステップS114で得た光源情報とステップS116で得た被写体輝度情報から肌色テーブルを選択する(ステップS118)。
【0070】
撮影光源の判別は以下の方法で行う。
【0071】
まず、被写体の輝度情報は、シャッターボタン32のS1 =ONに基づく測光値から重み付け加算により取得する。
【0072】
色情報については、撮像画像にデーライトホワイトバランスをかけて、デーライト時のホワイトバランスに規格化して取り扱う。デーライト時は、R/G、B/Gともにホワイトバランスが合う形なのでR/G=B/G=1となる。
【0073】
一方、タングステンは赤いのでR/Gが大きく、B/Gは小さい。一方、日陰は色温度が高いのでR/Gは小さく、B/Gが大きい。このように、R/GとB/Gを座標軸とする表色系を用いて光源色を判定し得る。
【0074】
図5に光源色の検出例を示す。同図は、(R/G,B/G)=(1,1)を原点とする表色座標系である。図示した日陰検出枠、昼光色蛍光灯検出枠、デーライト検出枠、昼白色蛍光灯検出枠、タングステン検出枠は、それぞれ光源種の色分布の範囲を規定するものである。このような検出枠のデータはカメラ10内に記憶されている。
【0075】
光源判別に際して、撮像画像の1画面を複数のエリア(例えば、8×8)に分割し、分割エリアごとにR、G、B信号の色別の平均積算値を求め、R信号の積算値とG信号の積算値との比R/G、及びB信号の積算値とG信号の積算値との比B/Gを求める。
【0076】
こうして、分割エリアごとに求められた(R/G,B/G)と図5の各検出枠とを対比し、各検出枠内に入る分割エリアの個数を求め、各検出枠のうち最も頻度の多いものをそのシーンの光源と判断する。
【0077】
ところで、例えば蛍光灯のシーンは緑色を含む傾向にあるのでR/G、B/Gは双方ともに「1」より小さい値となる。しかし、屋外の緑シーンも同様の結果(R/G、B/Gが双方ともに「1」より小さい値)を示すので、色情報のみから光源色と物体色の切り分けは困難である。そこで、本実施形態では、色情報のみならず、被写体輝度情報を利用して光源判定を行う。
【0078】
すなわち、蛍光灯は極端に明るいことは考えられないことから、所定の明るさ以上に明るい緑は蛍光灯ではなく、屋外の葉緑と推定する。このような光源判定を反映して肌色テーブルも屋外よりに設定する。
【0079】
図6は、肌色テーブルの選択に利用される光源判定の確度を定めた図表である。同図によれば、被写体輝度(LV値で表現)に応じてその光源の確度の高低がランク分けされている。Aランクは、その光源の確度が高いことを示し、Bランクはその光源の確度が低いことを示している。
【0080】
例えば、「昼白色蛍光灯」と判定された光源に対して、被写体輝度が11LVよりも低ければその光源(昼白色蛍光灯)である確度は高く、被写体輝度が11LV以上の場合にはその光源の確度が低いことを示している。ただし、「晴れ(デーライト)」と判定された場合には、確度のランク分けをせず、全領域について不変とする。
【0081】
カメラ10は、画像に含まれる色相の分布と被写体輝度(LV値)とに応じた肌色テーブルを備えており、光源判別情報(色相、輝度)に応じて、肌色テーブルを自動的に切り換える制御を行っている。
【0082】
図7は、光源種別ごとに設定された肌色テーブル(Aランク時)を例示した図である。横軸をR/G、縦軸をB/Gとした座標系において、各光源のAランク時に選択される肌色テーブルはそれぞれ図示のような矩形枠で囲まれた範囲(肌色抽出エリア)として設定されている。
【0083】
図8は、昼白色蛍光灯のBランク時に選択される肌色テーブルの例である。同図に示したように、昼白色蛍光灯Bランクの肌色テーブル(実線にて図示)90は、昼白色蛍光灯Aランクの肌色テーブル(一点鎖線にて図示)91よりも大きなエリアを有し、昼白色蛍光灯Aランクの肌色テーブル91と晴れの肌色テーブル(点線にて図示)92とを包含する範囲となっている。
【0084】
図9は、電球(タングステン)のBランク時に選択される肌色テーブルの例である。同図に示したように、電球Bランクの肌色テーブル(実線にて図示)94は、電球Aランクの肌色テーブル(二点鎖線にて図示)95よりも大きなエリアを有し、電球Aランクの肌色テーブル95と晴れの肌色テーブル(点線にて図示)92とを包含する範囲となっている。
【0085】
他の光源についてBランクの肌色テーブルは図示しないが、図8及び図9で説明した例と同様に、他の光源(デーライトを除く)に関してもBランクの肌色テーブルはAランクの肌色テーブルよりも大きな範囲が設定されている。
【0086】
なお、図7乃至図9では矩形形の肌色テーブルを例示したが、肌色テーブルの形状は矩形に限定されず、様々な形状に設計し得る。
【0087】
光源種別並びにその判定の確度に対応して複数の肌色テーブルがカメラ10内に用意されており、自動判別された撮影光源とその確度に応じて肌色テーブルが自動選択され、肌色テーブルの範囲内に入った色相点が「肌色」として検出される。
【0088】
図10は、顔抽出のシーケンスを示すフローチャートである。
【0089】
まず、シャッターボタン32のS1 =ON及びS2 =ONを経て、CCDRAWデータをメモリ22に記録する(ステップS210)。そして、図3で説明した前処理系(74、76、78)による処理を行い、記録したCCDRAWデータに対してオートホワイトバランスによるゲイン補正の処理(図10のステップS212)、積算処理(ステップS214)及び同時化処理を行う(ステップS216)。こうして、RGBの3面データが生成される。
【0090】
次いで、CPU14は、EEPROM24から肌色テーブルを取得する(ステップS218)。このとき、図4乃至図9で説明したように、光源種別とその確度に応じて肌色テーブルが選択される。
【0091】
その後、CPU14は、前処理系の同時化回路78から取得したRGBの3面データ(ガンマをかける前のリニアな系のデータ)を基に、肌色テーブル内の色相を検出する(図10のステップS220)。
【0092】
例えば、図11の符号100で示した矩形枠で囲まれた範囲が肌色抽出エリア(肌色テーブルに相当)として設定された場合、この範囲内に入ったものを肌色として判定する。
【0093】
更に、肌色抽出エリア100は、彩度によって更に複数のエリアに分割されている。図11において、「彩度」は原点Oからの距離によって表され、原点Oから離れるほど彩度が高くなる。同図の例では、原点を中心とする同心円状の境界線(破線により図示)によって肌色検出エリア100が6つの領域に区分けされている。
【0094】
CPU14は、前処理系の同時化回路78から取得したRGBの3面データから肌色領域を検出した後、当該肌色検出された部分を更に彩度を基準に領域分割する(図10のステップS222)。
【0095】
図12に、肌色検出された領域を更に彩度によって区分けした例を示す。画像内で対象物が異なるとその彩度も異なり、一般に人物の顔の肌色は、タングステン光源下の白色物や机などの木よりも彩度が高い傾向がある。したがって、肌色検出された領域を彩度によって細かく分けてその領域形状を把握することにより顔領域であるか、顔以外の領域であるかを判別することが容易になる。
【0096】
図10のステップS222において彩度による領域分割を行った後は、ステップS224に進む。ステップS224では、彩度によって領域分割されたもの(顔領域候補)の中から、更に各領域について形状検出を行い、形状から顔領域を特定する処理を行う。
【0097】
すなわち、顔として妥当なモデル形状(楕円や円)から定められた縦横比の規定値と、顔領域候補の形状とを対比し、検出された形状の縦横比が規定値から大きく外れるものについては、顔以外の領域であると判断する。
【0098】
顔領域候補の縦横比は、例えば、図13のように、顔領域候補102について垂直方向及び水平方向のヒストグラムからH(縦方向値)とW(水平方向値)を求め、これらの比H/Wを算出する。縦横比の値(H/W)がある一定の範囲のもの(楕円や円に近い形状)である場合に顔形状と判断する。
【0099】
このような形状認識によって顔候補が最終的に絞り込まれ、所定の縦横比を有する形状の領域部分が「顔」として抽出される。
【0100】
顔領域の抽出結果は、明るさ補正、ホワイトバランス補正、肌色をベストの色(目標値)に近づける色補正、赤目補正などに利用される。
【0101】
〔変形例〕
上述の実施形態では、画像に含まれる色相の分布によって光源色を推定し、被写体輝度値(LV値)によって確度を定めたが、本発明の実施に際して、色相の分布から確度を定めることも可能である。例えば、図で説明した光源色の判定の際に、各検出枠に含まれる分割エリアの頻度(個数)によって光源の確度を判断してもよい。もちろん、被写体輝度値と色相分布とを組み合わせて確度を判断してもよい。
【0102】
上記実施の形態では、(R/G,B/G)の表色系を述べたが、本発明の実施に際しては、表色空間は特に限定されず、RGB系、CIE L*a*b、CIE L*u*vその他の色空間を使用してもよい。
【0103】
また、上述の実施形態では、デジタルカメラを例示したが、本発明の適用範囲はこれに限定されず、カメラ付き携帯電話機、カメラ付きPDA、カメラ付きモバイルパソコンなど、電子撮像機能を備えた他の情報機器についても本発明を適用できる。この場合、撮像部は携帯電話機等の本体から分離可能な着脱式(外付けタイプ)のものであってもよい。更に、上述のような電子撮像機能付き機器で記録した画像データを再生表示する画像再生装置、或いはプリント出力するプリント装置などについても本発明を適用することが可能である。
【0104】
【発明の効果】
本発明によれば、画像データから自動判定される撮影光源の種別とその確度に応じて肌色条件を最適化できるので、肌色の検出精度を向上させることが可能である。また、光源種別判定の確度に応じて肌色条件領域の大きさや中心位置又は形状などを変更することにより、光源検出の誤差をカバーできる。これにより、精度のよい顔抽出が可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る電子カメラの構成を示すブロック図
【図2】撮影モード別の測光方式を説明するために用いた図
【図3】本例のカメラにおける顔抽出処理に関係する要部ブロック図
【図4】肌色テーブル決定のシーケンスを示すフローチャート
【図5】光源種の色分布の範囲を示す検出枠を示す図
【図6】肌色テーブルの選択に利用される光源の確度を定めた図表
【図7】光源種別ごとに設定された肌色テーブル(Aランク時)を例示した図
【図8】昼白色蛍光灯のBランク時に選択される肌色テーブルの例を示す図
【図9】電球(タングステン)のBランク時に選択される肌色テーブルの例を示す図
【図10】顔抽出のシーケンスを示すフローチャート
【図11】肌色抽出エリア(肌色テーブル)と彩度分割の例を示す図
【図12】肌色検出された領域を更に彩度によって区分けした例を示す図
【図13】顔領域候補の形状から縦横比を求める方法を説明するために用いた図
【符号の説明】
10…カメラ、14…CPU、24…EEPROM、42…撮影レンズ、44…CCD、70…積算回路、72…ホワイトバランス回路、74…積算回路、76…ホワイトバランス回路、78…同時化回路、90…昼白色蛍光灯Bランクの肌色テーブル、91…昼白色蛍光灯Aランクの肌色テーブル、92…晴れの肌色テーブル、94…電球Bランクの肌色テーブル、95…電球Aランクの肌色テーブル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face area extraction method and apparatus, and more particularly to a method and apparatus for extracting an area corresponding to a human face existing in a color image acquired by a digital camera or the like.
[0002]
[Prior art]
The most noticeable part when appreciating a portrait is the face of the person. There has been proposed a technique for automatically detecting a region corresponding to a human face in an image so that the human face is reproduced with appropriate brightness and color (Patent Document 1). According to the method disclosed in Patent Document 1, a face color distribution model is selected according to the illumination condition at the time of shooting, and face extraction is performed.
[0003]
[Patent Document 1]
JP 2001-167273 A
[0004]
[Problems to be solved by the invention]
However, Patent Document 1 only mentions that the camera photographing conditions (strobe ON / OFF, white balance, whiro balance mode, aperture, shutter speed, AGC, AE, gamma, pedestal level) are used for determining the illumination condition. It does not disclose what is actually the problem and how to set the facial color distribution model.
[0005]
The auto white balance (AWB) function installed in a general digital camera automatically determines the light source type from the captured image data, but it is difficult to accurately grasp the lighting conditions automatically, and lighting conditions to some extent It is necessary to allow a judgment error. In consideration of the detection variation of the photographic light source, it is necessary to extract a face with a wide range of skin color hues. This is also true for the data after the AWB result.
[0006]
That is, in the AWB process, it is impossible to correctly determine the type of light source, so the white balance correction amount is weakened to some extent with respect to the estimated light source. As a result, the light source color remains uncorrected. That is, white does not become white, and as a result, the skin color varies depending on the illumination light source. Therefore, when a face is extracted with a wide range of skin color hues, there is a problem that the frequency of erroneous detection of objects other than the face increases.
[0007]
The present invention has been made in view of such circumstances, and provides a face area extraction method and apparatus capable of accurately extracting a face area under various shooting conditions in consideration of detection variation of an illumination light source. For the purpose.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a face area extracting method according to the present invention is a method for extracting an area corresponding to a human face from an image, and determining a light source at the time of photographing based on image data And a accuracy determination step for determining the accuracy of light source determination in the light source determination step, and a skin color condition that defines a skin color hue range necessary for skin color detection is obtained from the light source information obtained from the light source determination step and the accuracy determination step. A skin color condition setting step that is set according to the accuracy information; and a skin color region detection step that detects a region having a skin color hue from within the image in accordance with the skin color condition set in the skin color condition setting step. To do.
[0009]
According to the present invention, image data is analyzed, and a photographing light source of the image is estimated from the color information and the like. Since it is difficult to determine a photographing light source completely automatically, the skin color condition is variably set so as to allow an error in light source determination in consideration of the accuracy (accuracy) of the estimated light source. The skin color condition defines the condition of the hue to be detected as the skin color, and this skin color condition is optimized according to the light source. Thereby, compared with the conventional method which applies the skin color condition common to all the light sources, the false detection of a skin color can be reduced and a face extraction with high precision is attained.
[0010]
If the skin color condition is represented by a region (area or volume) in a certain color coordinate system, the size, center position, or shape of the skin color condition region is changed according to the estimated photographing light source and its accuracy. If the accuracy of the light source determination is high, the skin color condition area can be set relatively small, so that the skin color detection accuracy is improved.
[0011]
A face region extraction method according to an aspect of the present invention includes a subject brightness detection step of detecting subject brightness, and the accuracy determination step determines the accuracy of the light source determination according to the subject brightness detected in the subject brightness detection step. It is characterized by determining.
[0012]
The subject brightness (brightness) obtained under each light source can be assumed from the characteristics of artificial light sources such as light bulbs (tungsten) and fluorescent lamps, or natural light sources such as outdoor shade and sunny weather. The accuracy of light source determination can be determined.
[0013]
According to another aspect of the present invention, the skin color region detection step includes a saturation division step of further dividing the skin color portion detected based on the skin color condition by saturation.
[0014]
Further, there is an aspect including a face area determining step of determining a face area based on the shape of the skin color area for each saturation divided in the saturation dividing step.
[0015]
An area having a flesh-colored hue (skin-color area) in an image is further divided into areas according to saturation, and the shape and size thereof are recognized, thereby facilitating determination of a face area.
[0016]
In order to identify a true face area from among the skin color areas (facial area candidates) subjected to saturation division, it is preferable to narrow down the face area based on the shape of the area. For example, a person's face is considered to be approximately circular or elliptical, and an aspect ratio for determining whether or not the face is a face region can be determined. Those that are extremely different from the specified aspect ratio (extremely long and narrow) for each candidate for the face area are excluded as non-faces, and those that are close to the specified aspect ratio are determined to be faces.
[0017]
In order to provide an apparatus that embodies the above method invention, a face area extraction apparatus according to the present invention is an apparatus that extracts an area corresponding to a human face from an image, and is a light source at the time of photographing based on image data A light source determination unit that determines the accuracy of light source determination by the light source determination unit, a light source information obtained from the light source determination unit and a skin color condition that defines a hue range of a skin color necessary for skin color detection and the light source information Skin color condition setting means for setting according to the accuracy information obtained from the accuracy determining means, skin color area detecting means for detecting an area having a skin color hue from the image in accordance with the skin color condition set by the skin color condition setting means, It is characterized by including.
[0018]
The face area extraction apparatus of the present invention can be incorporated in a signal processing unit of an electronic photographing apparatus (electronic camera) such as a digital camera or a video camera, and reproduces or displays or prints out image data recorded by the electronic camera. It can be incorporated into an image processing apparatus or the like.
[0019]
The face area extraction apparatus of the present invention can be realized by a computer, and a program for realizing the steps of the above-described face area extraction method by a computer is stored on a CD-ROM, a magnetic disk, or other recording medium. The program can be recorded and provided to a third party through a recording medium, or the program download service can be provided through a communication line such as the Internet.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of a face area extracting method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
[0021]
FIG. 1 is a block diagram showing a configuration of an electronic camera according to an embodiment of the present invention. This camera 10 is a digital camera that converts an optical image of a subject into digital image data and records it on a recording medium 12, and the face region of the present invention is part of a signal processing means that processes an image signal obtained by photographing. An extraction device is used.
[0022]
The overall operation of the camera 10 is centrally controlled by a central processing unit (CPU) 14 built in the camera. The CPU 14 functions as a control means for controlling the camera system according to a predetermined program, and various types such as automatic exposure (AE) calculation, automatic focus adjustment (AF) calculation, auto white balance (AWB) control, face area extraction calculation, etc. It functions as a calculation means for performing a calculation.
[0023]
The CPU 14 is connected to a ROM 20 and a memory (RAM) 22 via a bus 16. The ROM 20 stores a program executed by the CPU 14 and various data necessary for control. The memory 22 is used as a program development area and a calculation work area for the CPU 14, and is also used as a temporary storage area for image data.
[0024]
Further, an EEPROM 24 is connected to the CPU 14. The EEPROM 24 is a non-volatile storage means for storing a skin color determination table (skin color table) necessary for face area extraction processing, data necessary for control of AE, AF, AWB, etc., or customization information set by the user. Yes, the stored contents are retained even when the power is turned off. The CPU 14 performs calculations and the like with reference to data in the EEPROM 24 as necessary. The ROM 20 may be non-rewritable or may be rewritable like an EEPROM.
[0025]
The camera 10 is provided with an operation unit 30 for a user to input various commands. The operation unit 30 includes various operation units such as a macro button 31, a shutter button 32, and a zoom switch 33.
[0026]
The macro button 31 is an operation means for setting (ON) / releasing (OFF) a macro mode suitable for short-distance shooting. Macro mode allows you to take close-up photos with a relatively shallow depth of field and a beautifully blurred background. When the camera 10 is set to the macro mode by pressing the macro button 31, focus control suitable for short-distance shooting is performed, and shooting is possible within a subject distance range of about 20 cm to 80 cm.
[0027]
The shutter button 32 is an operation means for inputting an instruction to start photographing, and is configured by a two-stroke switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed. When S1 is on, AE and AF processing are performed, and when S2 is on, recording exposure is performed. The zoom switch 33 is an operation means for changing the photographing magnification and the reproduction magnification.
[0028]
Although not shown, the operation unit 30 includes a mode selection unit for switching between the shooting mode and the playback mode, and an optimum operation mode (continuous shooting mode, auto shooting mode, manual shooting mode, portrait mode) according to the shooting purpose. Shooting mode setting means for setting a landscape mode, night view mode, etc., a menu button for displaying a menu screen on the LCD monitor 40, a cross button for selecting a desired item from the menu screen (cursor moving operation means), and confirmation of the selected item In addition, an operation button such as an OK button for instructing execution of processing, an erasing of a desired target such as a selection item, cancellation of instruction contents, or a cancel button for inputting a command for returning to the previous operation state is also included. The operation unit 30 is not limited to a push-type switch member, dial member, lever switch, or the like, but also includes a unit realized by a user interface that selects a desired item from a menu screen. It is.
[0029]
A signal from the operation unit 30 is input to the CPU 14. The CPU 14 controls each circuit of the camera 10 based on an input signal from the operation unit 30. For example, lens driving control, photographing operation control, image processing control, image data recording / reproduction control, display control of the liquid crystal monitor 40, and the like. I do.
[0030]
The liquid crystal monitor 40 can be used as an electronic viewfinder for checking the angle of view at the time of shooting, and is used as a means for reproducing and displaying a recorded image. The liquid crystal monitor 40 is also used as a user interface display screen, and displays information such as menu information, selection items, and setting contents as necessary. Instead of a liquid crystal display, other types of display devices (display means) such as an organic EL can be used.
[0031]
Next, the shooting function of the camera 10 will be described.
[0032]
The camera 10 includes a photographing lens 42 as a photographing optical system and a CCD solid-state imaging device (hereinafter referred to as a CCD) 44. Instead of the CCD 44, other types of image pickup devices such as MOS solid-state image pickup devices can be used. The photographic lens 42 is composed of an electric zoom lens. Although a detailed optical configuration is not shown in the drawing, a magnifying lens group and a correction lens group that mainly provide an effect of changing magnification (variable focal length), and focus adjustment. And a contributing focus lens.
[0033]
When the photographer operates the zoom switch 33, a control signal is output from the CPU 14 to the zoom drive unit 46 in accordance with the switch operation. The zoom drive unit 46 is an electric drive unit including a motor (zoom motor) serving as a power source and a drive circuit thereof. The motor driving circuit of the zoom driving unit 46 generates a lens driving signal based on the control signal from the CPU 14 and supplies the lens driving signal to the zoom motor. Thus, the zoom motor operates by the motor drive voltage output from the motor drive circuit, and the zoom lens group and the correction lens group in the photographic lens 42 move back and forth along the optical axis, so that the focal length of the photographic lens 42 is increased. (Optical zoom magnification) is changed.
[0034]
In this example, it is assumed that the focal length of the photographing lens 42 can be varied in 10 steps within the zoom operation range from the wide (wide angle) end to the tele (telephoto) end. The photographer can select a desired focal length according to the shooting purpose and perform shooting.
[0035]
The zoom position (corresponding to the focal length) of the photographic lens 42 is detected by the zoom position detection sensor 48 and the detection signal is notified to the CPU 14. The CPU 14 can grasp the current zoom position (that is, focal length) from the signal from the zoom position detection sensor 48. The zoom position detection sensor 48 may be a circuit that generates a pulse by the rotation of a zoom motor or the like, or may have a configuration in which a position detection encode plate is disposed on the outer periphery of the lens barrel. At that time, there is no particular limitation.
[0036]
The light that has passed through the photographing lens 42 is incident on the CCD 44 after the amount of light is adjusted through a diaphragm mechanism (not shown). A large number of photosensors (light receiving elements) are arranged in a plane on the light receiving surface of the CCD 44, and primary color filters of red (R), green (G), and blue (B) are arranged in a predetermined arrangement corresponding to each photosensor. Arranged in a structure (Bayer, G stripe, etc.).
[0037]
The subject image formed on the light receiving surface of the CCD 44 is converted into a signal charge of an amount corresponding to the amount of incident light by each photosensor. The CCD 44 has an electronic shutter function that controls the charge accumulation time (shutter speed) of each photosensor according to the timing of the shutter gate pulse.
[0038]
The signal charges accumulated in the photosensors of the CCD 44 are sequentially read out as voltage signals (image signals) corresponding to the signal charges based on the pulses given from the CCD driver 50. The image signal output from the CCD 44 is sent to the analog processing unit 52. The analog processing unit 52 is a preceding processing unit including a CDS (correlated double sampling) circuit and a gain adjustment circuit. In this analog processing unit 52, sampling processing and color separation processing are performed on each of the R, G, and B color signals, The signal level of each color signal is adjusted (pre-white balance processing).
[0039]
The image signal output from the analog processing unit 52 is converted into a digital signal by the A / D converter 54 and then stored in the memory 22 via the signal processing unit 56. The image data stored in the memory 22 at this time is an A / D conversion output of the image signal output from the CCD 44 recorded as it is (unprocessed), and is subjected to signal processing such as gamma conversion and synchronization. This is image data that is not known (hereinafter referred to as CCD RAW data). However, “raw data” does not exclude any signal processing. For example, an image obtained by performing defective pixel correction processing that interpolates defective pixel data of an image sensor. Data and the like are included in the concept of CCD RAW data in that they are not expanded into a general-purpose format.
[0040]
A timing generator (TG) 58 provides timing signals to the CCD driver 50, the analog processing unit 52, and the A / D converter 54 in accordance with instructions from the CPU 14, and the circuits are synchronized by this timing signal. .
[0041]
The signal processing unit 56 is a digital signal processing block that also serves as a memory controller that controls reading and writing of the memory 22. The signal processing unit 56 calculates the color of each point by interpolating a spatial shift of the color signal associated with the color filter array of the single-chip CCD and an auto calculation unit that performs AE / AF / AWB processing. Processing circuit), a white balance circuit, a gamma conversion circuit, a luminance / color difference signal generation circuit, a contour correction circuit, a contrast correction circuit, and the like, and processes image signals using the memory 22 in accordance with commands from the CPU 14 To do.
[0042]
The CCD RAW data stored in the memory 22 is sent to the signal processing unit 56 via the bus 16. The image data input to the signal processing unit 56 is subjected to predetermined signal processing such as white balance adjustment processing, gamma conversion processing, conversion processing to luminance signals (Y signals) and color difference signals (Cr, Cb signals) (YC processing). Is stored in the memory 22.
[0043]
When the captured image is output to the monitor, the image data is read from the memory 22 and transferred to the display circuit 60. The image data sent to the display circuit 60 is converted into a predetermined display signal (for example, an NTSC color composite video signal) and then output to the liquid crystal monitor 40. The image data in the memory 22 is periodically rewritten by the image signal output from the CCD 44, and the video signal generated from the image data is supplied to the liquid crystal monitor 40, so that the video being captured (through image) can be obtained. It is displayed on the liquid crystal monitor 40 in real time. The photographer can check the angle of view (composition) from the video (so-called through movie) displayed on the liquid crystal monitor 40.
[0044]
When the photographer determines the angle of view and presses the shutter button 32, the CPU 14 detects this, performs AE processing and AF processing in response to half-pressing of the shutter button 32 (S1 ON), and fully presses the shutter button 32. In response to (S2 = ON), CCD exposure and readout control for capturing an image for recording is started.
[0045]
The AF control in the camera 10 is, for example, contrast AF that moves the focus lens (a moving lens that contributes to focus adjustment among the lens optical systems constituting the photographing lens 42) so that the high-frequency component of the G signal of the video signal is maximized. Applies. That is, the AF calculation unit is a high-pass filter that passes only a high-frequency component of the G signal, an absolute value processing unit, and an AF area that cuts out a signal in a focus target area set in advance in the screen (for example, the center of the screen). An extraction unit and an integration unit that integrates absolute value data in the AF area are configured.
[0046]
The integrated value data obtained by the AF calculation unit is notified to the CPU 14. The CPU 14 calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while moving the focus lens by controlling the focus driving unit 62 including the AF motor, and calculates the AF calculated at each AF detection point. From the evaluation value, the lens position where the value is maximized is determined as the focus position. Then, the focus driving unit 62 is controlled to move the focus lens to the obtained in-focus position.
[0047]
In relation to the AE control, the AE calculation unit includes a circuit that divides one screen into a plurality of areas (for example, 8 × 8) and integrates the RGB signals for each divided area, and provides the integrated value to the CPU 14. To do. The CPU 14 performs weighted addition based on the integrated value obtained from the AE calculation unit, detects the brightness of the subject (subject brightness), and calculates an exposure value (shooting EV value) suitable for shooting.
[0048]
Next, a method for calculating the photographing EV value will be described.
[0049]
One screen of the photographed image is divided into a plurality of areas (for example, 64 blocks of 8 × 8), and the EV value (EVi) of each divided area is calculated based on the integrated value obtained from the R, G, and B signals for each divided area. Ask. Subsequently, as shown in FIG. 2, the EV value of each divided area is weighted corresponding to the shooting mode, and the EV ′ value of the entire screen is calculated by the following equation.
[0050]
EV ′ = log 2 {Σ (W i × 2 EVi ) / ΣW i }
However, i: 0 to 63 (subscript indicating an 8 × 8 divided area)
W i : Weighting factor for each divided area corresponding to the shooting mode, that is, when the shooting mode is auto / person mode, the center-weighted metering method is used as shown in the weighting coefficient of FIG. In this case, as shown in FIG. 2 (B), the photometry method is obtained by reducing the weighting of the divided areas located on the outermost periphery. In the night view mode, the average photometry method is used as shown in FIG. 2 (C). .
[0051]
The EV ′ value calculated as described above is further subjected to exposure correction ΔEV corresponding to the shooting mode as shown in the following equation to obtain the shooting EV value.
[0052]
## EQU2 ## EV = EV′−ΔEV
Note that ΔEV is, for example, ΔEV = 0 in the portrait mode, and ΔEV = 0.3 in the landscape mode and the night view mode.
[0053]
The aperture value and shutter speed at the time of shooting are determined based on the shooting EV value obtained as described above.
[0054]
Then, when the shutter button 32 is fully pressed, the aperture mechanism is driven through an aperture drive unit (not shown) so that the determined aperture value is obtained, and charge is accumulated by the electronic shutter so that the determined shutter speed is achieved. Control the time.
[0055]
The image data taken in response to the shutter button 32 being fully pressed (S2 = ON) is subjected to YC processing and other predetermined signal processing in the signal processing unit 56 shown in FIG. In accordance with the compression format (for example, JPEG method). The compressed image data is recorded on the recording medium 12 via the media interface unit 66. The compression format is not limited to JPEG, and MPEG and other methods may be adopted.
[0056]
As a means for storing image data, various media such as a semiconductor memory card represented by SmartMedia (trademark), compact flash (trademark), a magnetic disk, an optical disk, and a magneto-optical disk can be used. Further, the recording medium (internal memory) built in the camera 10 is not limited to the removable medium.
[0057]
When the playback mode is selected by the mode selection means, the last image file (last recorded file) recorded on the recording medium 12 is read. The image file data read from the recording medium 12 is decompressed by the compression / decompression circuit 64 and output to the liquid crystal monitor 40 via the display circuit 60.
[0058]
By operating the cross button during single-frame playback in the playback mode, it is possible to advance the frame in the forward direction or in the reverse direction, and the next file after the frame advance is read from the recording medium 12, and the image is processed in the same manner as described above. Is played.
[0059]
FIG. 3 is a principal block diagram related to face extraction processing in the camera 10 of this example. 3 that are the same as those described in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
[0060]
In FIG. 3, an integration circuit 70 and a white balance circuit 72 in the upper stage are processing systems used for normal auto white balance processing. Further, the integration circuit 74, white balance circuit 76, and synchronization circuit 78 shown in the lower part are processing units (hereinafter referred to as a preprocessing system) for performing preprocessing of the face extraction algorithm.
[0061]
The CCD RAW data output from the A / D converter 18 when the shutter button 32 is fully pressed is stored in the memory 22 and sent from the memory 22 to the integrating circuit 70. The integrating circuit 70 includes a circuit that divides one screen into a plurality of areas (for example, 8 × 8 64 blocks) and calculates an average integrated value for each color of the RGB signal for each area, and the calculation result is a reference. It is sent to the white balance circuit 72 assuming a light source (daylight). The signal whose gain has been adjusted by the white balance circuit 72 is provided to the CPU 14.
[0062]
The CPU 14 obtains an integrated value of R, an integrated value of B, and an integrated value of G, obtains a ratio of R / G and B / G, and takes these R / G and B / G values and a shooting EV by AE calculation. Based on the value information (subject luminance LV value = EV value), scene discrimination (light source type discrimination) is performed, and signal processing is performed according to a predetermined white balance adjustment value (setting that leaves the light source atmosphere) suitable for the scene. The amplifier gains of the white balance circuit 80 and the pre-processing white balance circuit 76 in the unit 56 are controlled to correct the signals of the respective color channels. As a method for discriminating a light source type and a white balance control method for leaving an atmosphere of a light source, a method disclosed in Japanese Patent Application Laid-Open No. 2000-224608 can be used.
[0063]
The CCD RAW data acquired in response to S2 = ON is sent from the memory 22 to the signal processing unit 56 and the pre-processing system integration circuit 74 for face extraction. The preprocessing integration circuit 74 divides one screen into, for example, 130 × 190 areas, and calculates an integrated value for each area. The calculation result of the integration circuit 74 is sent to the white balance circuit 76, where white balance processing reflecting AWB is performed. Data with AWB applied is sent to the synchronization circuit 78, where data of the same number of pixels (3-plane data) is generated for each of R, G, and B.
[0064]
Based on the RGB three-plane data generated by the synchronization circuit 78, the CPU 14 executes skin color detection, saturation division, face candidate extraction, and face area specification processing based on the shape of the face candidate area. Details of the face extraction algorithm will be described later.
[0065]
On the other hand, the CCD RAW data sent from the memory 22 to the signal processing unit 56 is subjected to processing reflecting AWB by the white balance circuit 80 and then sent to the gamma conversion circuit 82. The gamma conversion circuit 82 changes the input / output characteristics so that the white balance adjusted RGB signal has a desired gamma characteristic, and outputs it to the luminance / color difference signal generation circuit 84.
[0066]
The luminance / chrominance signal generation circuit 84 creates a luminance signal Y and chroma signals Cr, Cb from the gamma-corrected R, G, B signals. The luminance signal Y and chroma signals Cr and Cb (YC signal) are compressed by the compression / decompression circuit 64 in a predetermined format such as JPEG and recorded on the recording medium 12.
[0067]
Next, the face extraction function installed in the camera 10 according to the present embodiment will be described.
[0068]
FIG. 4 is a flowchart showing a sequence for determining a skin color table that defines a hue range to be extracted as a skin color. As shown in the figure, AE and AF processing is executed by confirming S1 = ON of the shutter button 32 (step S110), CCDRAW data is taken in response to S2 = ON, and this is temporarily recorded in the memory 22 ( Step S112).
[0069]
Thereafter, the light source type is determined based on the acquired CCD RAW data (step S114). Also, information on the subject brightness obtained by the AE process in step S110 is acquired (step S116), and a skin color table is selected from the light source information obtained in step S114 and the subject brightness information obtained in step S116 (step S118).
[0070]
The photographing light source is determined by the following method.
[0071]
First, the luminance information of the subject is obtained by weighted addition from a photometric value based on S1 = ON of the shutter button 32.
[0072]
The color information is handled by applying a daylight white balance to the captured image and standardizing the white balance at the daylight. At the time of daylight, R / G and B / G are in the form of white balance, so R / G = B / G = 1.
[0073]
On the other hand, since tungsten is red, R / G is large and B / G is small. On the other hand, since the shade has a high color temperature, the R / G is small and the B / G is large. In this way, the light source color can be determined using a color system having R / G and B / G as coordinate axes.
[0074]
FIG. 5 shows an example of detecting the light source color. This figure is a color coordinate system with the origin at (R / G, B / G) = (1, 1). The shade detection frame, the daylight color fluorescent light detection frame, the daylight detection frame, the day white fluorescent light detection frame, and the tungsten detection frame shown in the figure respectively define the color distribution ranges of the light source types. Such detection frame data is stored in the camera 10.
[0075]
When determining the light source, one screen of the captured image is divided into a plurality of areas (for example, 8 × 8), and an average integrated value for each color of the R, G, and B signals is obtained for each divided area. A ratio R / G with the integrated value of the G signal and a ratio B / G between the integrated value of the B signal and the integrated value of the G signal are obtained.
[0076]
Thus, (R / G, B / G) obtained for each divided area is compared with each detection frame in FIG. 5 to determine the number of divided areas that fall within each detection frame. Are determined to be the light source of the scene.
[0077]
By the way, for example, since a fluorescent lamp scene tends to include green, both R / G and B / G are smaller than “1”. However, since the outdoor green scene also shows the same result (R / G and B / G are both values smaller than “1”), it is difficult to separate the light source color and the object color from only the color information. Therefore, in the present embodiment, light source determination is performed using not only color information but also subject luminance information.
[0078]
That is, since it is unlikely that a fluorescent lamp is extremely bright, green that is brighter than a predetermined brightness is estimated not as a fluorescent lamp but as an outdoor leaf green. Reflecting such light source determination, the skin color table is also set from outside.
[0079]
FIG. 6 is a chart that defines the accuracy of light source determination used for selecting the skin color table. According to the figure, the level of accuracy of the light source is ranked according to the subject brightness (expressed by LV value). Rank A indicates that the accuracy of the light source is high, and rank B indicates that the accuracy of the light source is low.
[0080]
For example, if the subject luminance is lower than 11 LV with respect to the light source determined to be “day white fluorescent lamp”, the light source (day white fluorescent lamp) has a high degree of accuracy, and if the subject luminance is 11 LV or higher, the light source The accuracy of is low. However, when it is determined as “clear (daylight)”, the ranks of the accuracy are not classified and the entire area is not changed.
[0081]
The camera 10 includes a skin color table corresponding to the distribution of hues included in the image and the subject brightness (LV value), and performs control for automatically switching the skin color table according to the light source discrimination information (hue, brightness). Is going.
[0082]
FIG. 7 is a diagram illustrating a skin color table (for A rank) set for each light source type. In the coordinate system where the horizontal axis is R / G and the vertical axis is B / G, the skin color table selected at the rank A of each light source is set as a range (skin color extraction area) surrounded by a rectangular frame as shown in the figure. Has been.
[0083]
FIG. 8 is an example of a skin color table selected at the time of rank B of the daylight white fluorescent lamp. As shown in the figure, the skin color table (shown by a solid line) 90 of the day white fluorescent lamp B rank has a larger area than the skin color table 91 (shown by a dashed line) of the day white fluorescent lamp A rank. The range includes a flesh color table 91 of daylight white fluorescent lamp A rank and a clear flesh color table 92 (illustrated by dotted lines) 92.
[0084]
FIG. 9 is an example of a skin color table selected when the light bulb (tungsten) is ranked B. As shown in the drawing, the skin color table 94 (shown by a solid line) of the light bulb B rank has a larger area than the skin color table 95 (shown by a two-dot chain line) 95 of the light bulb A rank. The range includes a skin color table 95 and a clear skin color table (illustrated by dotted lines) 92.
[0085]
Although the B-rank skin color table is not shown for other light sources, the B-rank skin color table is more similar to the A-rank skin color table for other light sources (excluding daylight) as in the examples described in FIGS. Even a large range is set.
[0086]
7 to 9 exemplify a rectangular skin color table, the shape of the skin color table is not limited to a rectangle, and various shapes can be designed.
[0087]
A plurality of skin color tables are prepared in the camera 10 corresponding to the light source type and the accuracy of the determination, and the skin color table is automatically selected according to the automatically determined photographing light source and the accuracy, and is within the range of the skin color table. The entered hue point is detected as “skin color”.
[0088]
FIG. 10 is a flowchart showing a face extraction sequence.
[0089]
First, through S1 = ON and S2 = ON of the shutter button 32, CCD RAW data is recorded in the memory 22 (step S210). Then, processing by the preprocessing system (74, 76, 78) described in FIG. 3 is performed, gain correction processing by auto white balance is performed on the recorded CCD RAW data (step S212 in FIG. 10), and integration processing (step S214). ) And a synchronization process are performed (step S216). In this way, RGB three plane data is generated.
[0090]
Next, the CPU 14 acquires a skin color table from the EEPROM 24 (step S218). At this time, as described with reference to FIGS. 4 to 9, the skin color table is selected according to the light source type and its accuracy.
[0091]
Thereafter, the CPU 14 detects the hue in the skin color table based on the RGB three-plane data (linear system data before applying gamma) acquired from the preprocessing system synchronization circuit 78 (step in FIG. 10). S220).
[0092]
For example, when a range surrounded by a rectangular frame indicated by reference numeral 100 in FIG. 11 is set as a skin color extraction area (corresponding to a skin color table), a part within this range is determined as a skin color.
[0093]
Furthermore, the skin color extraction area 100 is further divided into a plurality of areas depending on the saturation. In FIG. 11, “saturation” is represented by a distance from the origin O, and the saturation increases as the distance from the origin O increases. In the example of the figure, the skin color detection area 100 is divided into six regions by a concentric boundary line (illustrated by a broken line) centered on the origin.
[0094]
After detecting the skin color area from the RGB three-surface data acquired from the preprocessing system synchronization circuit 78, the CPU 14 further divides the detected skin color area based on the saturation (step S222 in FIG. 10). .
[0095]
FIG. 12 shows an example in which the skin color detected area is further divided by saturation. Different objects in the image have different saturations, and generally the skin color of a person's face tends to be higher in saturation than white objects or trees such as desks under a tungsten light source. Therefore, it becomes easy to discriminate whether it is a face region or a region other than the face by finely dividing the skin color detected region according to the saturation and grasping the shape of the region.
[0096]
After performing the area division based on the saturation in step S222 in FIG. 10, the process proceeds to step S224. In step S224, the shape is further detected for each region from those divided by saturation (face region candidates), and the face region is identified from the shape.
[0097]
That is, when the aspect ratio specified by the model shape (ellipse or circle) appropriate for the face is compared with the shape of the face area candidate, the aspect ratio of the detected shape is significantly different from the specified value. , It is determined that the region is other than the face.
[0098]
As for the aspect ratio of the face area candidate, for example, as shown in FIG. 13, H (vertical value) and W (horizontal value) are obtained from the vertical and horizontal histograms for the face area candidate 102, and the ratio H / W is calculated. A face shape is determined when the aspect ratio value (H / W) is within a certain range (a shape close to an ellipse or a circle).
[0099]
Face candidates are finally narrowed down by such shape recognition, and an area portion having a shape having a predetermined aspect ratio is extracted as a “face”.
[0100]
The face area extraction result is used for brightness correction, white balance correction, color correction for bringing the skin color closer to the best color (target value), red-eye correction, and the like.
[0101]
[Modification]
In the above-described embodiment, the light source color is estimated from the hue distribution included in the image, and the accuracy is determined by the subject luminance value (LV value). However, in the implementation of the present invention, the accuracy can be determined from the hue distribution. It is. For example, when determining the light source color described with reference to the drawing, the accuracy of the light source may be determined based on the frequency (number) of divided areas included in each detection frame. Of course, the accuracy may be determined by combining the subject luminance value and the hue distribution.
[0102]
In the above embodiment, the color system of (R / G, B / G) has been described. However, in the implementation of the present invention, the color space is not particularly limited, and the RGB system, CIE L * a * b, CIE L * u * v and other color spaces may be used.
[0103]
In the above-described embodiment, the digital camera is exemplified. However, the scope of application of the present invention is not limited to this, and other electronic imaging functions such as a mobile phone with camera, a PDA with camera, and a mobile personal computer with camera are provided. The present invention can also be applied to information equipment. In this case, the imaging unit may be a detachable (external type) that is separable from a main body such as a mobile phone. Furthermore, the present invention can also be applied to an image reproducing apparatus that reproduces and displays image data recorded by the above-described device with an electronic imaging function, or a printing apparatus that prints out.
[0104]
【The invention's effect】
According to the present invention, the skin color condition can be optimized according to the type and accuracy of the photographic light source automatically determined from the image data, so that the skin color detection accuracy can be improved. Further, the error of light source detection can be covered by changing the size, center position or shape of the skin color condition area according to the accuracy of the light source type determination. Thereby, accurate face extraction is possible.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an electronic camera according to an embodiment of the present invention. FIG. 2 is a diagram used for explaining a photometry method for each photographing mode. FIG. 3 is used for face extraction processing in the camera of this example. Fig. 4 is a flowchart showing a skin color table determination sequence. Fig. 5 is a detection frame showing a range of color distribution of light source types. Fig. 6 is a diagram of a light source used for selecting a skin color table. Chart showing accuracy [Fig. 7] Fig. 8 is an example of a flesh color table (A rank) set for each light source type. [Fig. 8] An example of the flesh color table selected at the B rank of daylight white fluorescent lamps. 9 is a diagram showing an example of a skin color table selected when the light bulb (tungsten) is ranked B. FIG. 10 is a flowchart showing a face extraction sequence. FIG. 11 is an example of a skin color extraction area (skin color table) and saturation division. Illustration 12] Description of Figure [code used for explaining the method of obtaining the Figure 13 the aspect ratio of the shape of the face region candidate showing an example of divided by further skin color detected area chroma]
DESCRIPTION OF SYMBOLS 10 ... Camera, 14 ... CPU, 24 ... EEPROM, 42 ... Shooting lens, 44 ... CCD, 70 ... Integration circuit, 72 ... White balance circuit, 74 ... Integration circuit, 76 ... White balance circuit, 78 ... Synchronization circuit, 90 ... Natural white fluorescent light B rank skin color table, 91 ... Natural white fluorescent light A rank skin color table, 92 ... Sunny skin color table, 94 ... Light bulb B rank skin color table, 95 ... Light bulb A rank skin color table

Claims (5)

画像内から人物の顔に相当する領域を抽出する方法であって、
画像データに基づいて撮影時の光源を判定する光源判定工程と、
前記光源判定工程による光源判定の確度を求める確度決定工程と、
肌色検出に必要な肌色の色相範囲を定める肌色条件を前記光源判定工程から得られた光源情報及び前記確度決定工程から得られた確度情報に応じて設定する肌色条件設定工程と、
前記肌色条件設定工程で設定された肌色条件に従って画像内から肌色の色相を有する領域を検出する肌色領域検出工程と、
を含むことを特徴とする顔領域抽出方法。
A method for extracting an area corresponding to a human face from an image,
A light source determination step of determining a light source at the time of shooting based on image data;
An accuracy determination step for determining the accuracy of light source determination by the light source determination step;
A skin color condition setting step for setting a skin color condition for defining a skin color hue range necessary for skin color detection according to the light source information obtained from the light source determination step and the accuracy information obtained from the accuracy determination step;
A skin color region detection step of detecting a region having a skin color hue from within the image in accordance with the skin color condition set in the skin color condition setting step;
A facial region extraction method characterized by comprising:
被写体輝度を検出する被写体輝度検出工程を含み、
前記確度決定工程は、前記被写体輝度検出工程で検出した被写体輝度に応じて前記光源判定の確度を決定することを特徴とする請求項1記載の顔領域抽出方法。
Including a subject brightness detection step of detecting subject brightness,
The face area extraction method according to claim 1, wherein the accuracy determination step determines the accuracy of the light source determination according to the subject luminance detected in the subject luminance detection step.
前記肌色領域検出工程は、前記肌色条件に基づいて検出される肌色部分を更に彩度によって分割する彩度分割工程を含むことを特徴とする請求項1又は2記載の顔領域抽出方法。The face area extraction method according to claim 1, wherein the skin color area detecting step includes a saturation division step of further dividing a skin color portion detected based on the skin color condition according to saturation. 前記彩度分割工程で分割された彩度別の肌色領域の形状に基づいて顔領域を決定する顔領域決定工程を含むことを特徴とする請求項3記載の顔領域抽出方法。4. The face area extraction method according to claim 3, further comprising a face area determination step of determining a face area based on the shape of the skin color area for each saturation divided in the saturation division step. 画像内から人物の顔に相当する領域を抽出する装置であって、
画像データに基づいて撮影時の光源を判定する光源判定手段と、
前記光源判定手段による光源判定の確度を求める確度決定手段と、
肌色検出に必要な肌色の色相範囲を定める肌色条件を前記光源判定手段から得られた光源情報及び前記確度決定手段から得られた確度情報に応じて設定する肌色条件設定手段と、
前記肌色条件設定手段で設定された肌色条件に従って画像内から肌色の色相を有する領域を検出する肌色領域検出手段と、
を含むことを特徴とする顔領域抽出装置。
An apparatus for extracting an area corresponding to a human face from an image,
Light source determination means for determining a light source at the time of shooting based on image data;
Accuracy determination means for determining the accuracy of light source determination by the light source determination means;
Skin color condition setting means for setting a skin color condition for determining a skin color hue range necessary for skin color detection according to light source information obtained from the light source determination means and accuracy information obtained from the accuracy determination means;
Skin color area detecting means for detecting an area having a skin color hue from within the image in accordance with the skin color condition set by the skin color condition setting means;
A face area extracting apparatus comprising:
JP2002356794A 2002-12-09 2002-12-09 Face area extraction method and apparatus Expired - Fee Related JP4200428B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002356794A JP4200428B2 (en) 2002-12-09 2002-12-09 Face area extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002356794A JP4200428B2 (en) 2002-12-09 2002-12-09 Face area extraction method and apparatus

Publications (2)

Publication Number Publication Date
JP2004192129A true JP2004192129A (en) 2004-07-08
JP4200428B2 JP4200428B2 (en) 2008-12-24

Family

ID=32757030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002356794A Expired - Fee Related JP4200428B2 (en) 2002-12-09 2002-12-09 Face area extraction method and apparatus

Country Status (1)

Country Link
JP (1) JP4200428B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024132A (en) * 2004-07-09 2006-01-26 Canon Inc Image processing method and device
KR100680278B1 (en) 2005-12-28 2007-02-07 고려대학교 산학협력단 Method for lip shape extraction and apparatus thereof
JP2007272298A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Face detection method and photographing device using the same
JP2009055443A (en) * 2007-08-28 2009-03-12 Toshiba Corp Image search system
JP2009134383A (en) * 2007-11-29 2009-06-18 Sony Corp Image processing device, method, and program
JP2009170966A (en) * 2008-01-10 2009-07-30 Canon Inc Image processing apparatus, image processing method, and program
JP2009231921A (en) * 2008-03-19 2009-10-08 Toshiba Corp Image processing apparatus, image processing method, and image processing system
JP2010068120A (en) * 2008-09-09 2010-03-25 Toshiba Corp Monitoring system
WO2010058678A1 (en) * 2008-11-19 2010-05-27 シャープ株式会社 Specified color area demarcation circuit, detection circuit, and image processing apparatus using same
US8055063B2 (en) 2003-09-30 2011-11-08 Sharp Laboratories Of America, Inc. Methods and systems for improving robustness of color balance correction
US8144944B2 (en) 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
JP2012120241A (en) * 2012-02-13 2012-06-21 Canon Inc Image processing apparatus
US8279300B2 (en) 2009-01-27 2012-10-02 Sony Corporation Imaging device and imaging method
KR101347573B1 (en) * 2006-02-14 2014-01-03 삼성전자주식회사 Method and Apparatus for Detecting Face on Digital Image
US8654208B2 (en) 2009-01-27 2014-02-18 Sony Corporation Imaging device and imaging method
JP2016018276A (en) * 2014-07-04 2016-02-01 富士通株式会社 Gesture recognition device and gesture recognition program
WO2016088293A1 (en) 2014-12-04 2016-06-09 Sony Corporation Imaging device, apparatus, and imaging method
KR20170030334A (en) * 2015-09-09 2017-03-17 연세대학교 산학협력단 Apparatus and Method of Enhancing Visual Flavor of Food Image
JP2017200132A (en) * 2016-04-28 2017-11-02 キヤノン株式会社 Monitoring system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8055063B2 (en) 2003-09-30 2011-11-08 Sharp Laboratories Of America, Inc. Methods and systems for improving robustness of color balance correction
JP2006024132A (en) * 2004-07-09 2006-01-26 Canon Inc Image processing method and device
JP4498040B2 (en) * 2004-07-09 2010-07-07 キヤノン株式会社 Image processing method and apparatus
KR100680278B1 (en) 2005-12-28 2007-02-07 고려대학교 산학협력단 Method for lip shape extraction and apparatus thereof
KR101347573B1 (en) * 2006-02-14 2014-01-03 삼성전자주식회사 Method and Apparatus for Detecting Face on Digital Image
JP2007272298A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Face detection method and photographing device using the same
US8144944B2 (en) 2007-08-14 2012-03-27 Olympus Corporation Image sharing system and method
JP2009055443A (en) * 2007-08-28 2009-03-12 Toshiba Corp Image search system
US8238652B2 (en) 2007-11-29 2012-08-07 Sony Corporation Image processing apparatus and method, and program
JP2009134383A (en) * 2007-11-29 2009-06-18 Sony Corp Image processing device, method, and program
JP2009170966A (en) * 2008-01-10 2009-07-30 Canon Inc Image processing apparatus, image processing method, and program
JP2009231921A (en) * 2008-03-19 2009-10-08 Toshiba Corp Image processing apparatus, image processing method, and image processing system
JP2010068120A (en) * 2008-09-09 2010-03-25 Toshiba Corp Monitoring system
JP4851624B2 (en) * 2008-11-19 2012-01-11 シャープ株式会社 Designated color region defining circuit, detection circuit, and image processing apparatus using the same
CN102216956A (en) * 2008-11-19 2011-10-12 夏普株式会社 Specified color area demarcation circuit, detection circuit, and image processing apparatus using same
WO2010058678A1 (en) * 2008-11-19 2010-05-27 シャープ株式会社 Specified color area demarcation circuit, detection circuit, and image processing apparatus using same
US8279300B2 (en) 2009-01-27 2012-10-02 Sony Corporation Imaging device and imaging method
US8654208B2 (en) 2009-01-27 2014-02-18 Sony Corporation Imaging device and imaging method
JP2012120241A (en) * 2012-02-13 2012-06-21 Canon Inc Image processing apparatus
JP2016018276A (en) * 2014-07-04 2016-02-01 富士通株式会社 Gesture recognition device and gesture recognition program
WO2016088293A1 (en) 2014-12-04 2016-06-09 Sony Corporation Imaging device, apparatus, and imaging method
KR20170030334A (en) * 2015-09-09 2017-03-17 연세대학교 산학협력단 Apparatus and Method of Enhancing Visual Flavor of Food Image
KR101718085B1 (en) * 2015-09-09 2017-03-20 연세대학교 산학협력단 Apparatus and Method of Enhancing Visual Flavor of Food Image
JP2017200132A (en) * 2016-04-28 2017-11-02 キヤノン株式会社 Monitoring system

Also Published As

Publication number Publication date
JP4200428B2 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
JP4284448B2 (en) Image processing apparatus and method
JP4200428B2 (en) Face area extraction method and apparatus
JP4126721B2 (en) Face area extraction method and apparatus
US8823829B2 (en) Image capture with adjustment of imaging properties at transitions between regions
JP4158592B2 (en) Auto white balance adjustment method and camera to which this method is applied
US8625021B2 (en) Image capture with region-based adjustment of imaging properties
US8760561B2 (en) Image capture for spectral profiling of objects in a scene
JP2001211362A (en) Composition assisting frame selecting method for digital camera and digital camera
JP2006352795A (en) Imaging apparatus and image processing method
JP2008236101A (en) Imaging device and imaging method
US8665355B2 (en) Image capture with region-based adjustment of contrast
JP2008028960A (en) Photographing apparatus and exposure control method
JP2008278354A (en) Imaging device
JP2004201228A (en) Method and device for extracting face area
JP5048599B2 (en) Imaging device
US7570294B2 (en) Digital camera
JP4178017B2 (en) Image processing method and digital camera
US8760527B2 (en) Extending a digital camera focus range
JP2002218495A (en) White balance control method and electronic camera
JP2005033255A (en) Image processing method of digital image, digital camera and print system
JP2004120225A (en) Digital camera
JP2003324651A (en) Digital camera
JP4081609B2 (en) Imaging device
JP2003309854A (en) Digital camera
JP4422353B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050318

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080924

R150 Certificate of patent or registration of utility model

Ref document number: 4200428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121017

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131017

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees