JP5950664B2 - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP5950664B2
JP5950664B2 JP2012089674A JP2012089674A JP5950664B2 JP 5950664 B2 JP5950664 B2 JP 5950664B2 JP 2012089674 A JP2012089674 A JP 2012089674A JP 2012089674 A JP2012089674 A JP 2012089674A JP 5950664 B2 JP5950664 B2 JP 5950664B2
Authority
JP
Japan
Prior art keywords
image
control unit
specific
region
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012089674A
Other languages
English (en)
Other versions
JP2013218177A (ja
JP2013218177A5 (ja
Inventor
長谷川 玲治
玲治 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012089674A priority Critical patent/JP5950664B2/ja
Priority to US13/856,630 priority patent/US8823863B2/en
Publication of JP2013218177A publication Critical patent/JP2013218177A/ja
Publication of JP2013218177A5 publication Critical patent/JP2013218177A5/ja
Application granted granted Critical
Publication of JP5950664B2 publication Critical patent/JP5950664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Description

本発明は撮像装置およびその制御方法に関し、特に自動焦点検出機能を有する撮像装置およびその制御方法に関する。
人物を撮影する際には人物の顔、それも目に合焦させるのが一般的であるが、マニュアルフォーカスで目に合焦させることは容易でない。最近のカメラはオートフォーカス機能を有するが、自動で目に合焦するわけではない。自動で目に合焦させるためには、視野に含まれる被写体の顔、さらには目を検知する必要がある。
画像から人物の顔や目を検知する方法として、顔の領域をテンプレート画像として記憶し、探索対象の画像内でテンプレート画像と最も相関の高い領域を、対応する顔の領域とする(テンプレートマッチング)方法がある。例えば、テンプレート画像と検索対象画像の部分画像の対応する位置の画素値の差分の総和を、部分画像の切り出し位置を変えながら順次求め、総和が最も小さくなる位置の部分画像を、テンプレート画像と最も相関の高い領域と判断する。
一方、特許文献1には、様々な特徴量をもとにブースティングにより学習した検出器を用いて画像から人物の顔や目を検知する方法が提案されている(特許文献1)。
特開2010−92199号公報
テンプレートマッチングは計算が単純なため高速な処理が可能であり、動画撮影時や連写時においても、各フレーム(コマ)に対して実行できる。しかし、画素値の差の総和による判定であるため、探索された部分画像のどこに目があるのか、口があるのか、という詳細な位置情報を求めることはできない。
一方、特許文献1に記載された方法では、顔の中の目や口の位置を検知可能であるが、顔を検知するための計算量が膨大である。そのため、処理能力が高くない一般的な撮像装置で実行した場合、シャッタレスポンスの低下を招いたり、動画撮影時や連写時には適用できないといった状況が想定される。
このように、従来の技術では、例えば動画フレームや連写撮影される各コマのように、短い周期で撮影される複数の画像について顔および顔の中の目を検知することができなかった。そのため、自動的かつ高速に、顔や目に合焦させることはできなかった。このような従来技術の課題は、人物の顔に限定されず、被写体の特定の部分に対する自動合焦制御一般に当てはまるものである。
本発明はこのような従来技術の課題を解決し、被写体の特定の部分に自動的かつ高速に、合焦させることが可能な撮像装置およびその制御方法を提供することを目的とする。
上述の目的は、撮像素子と、撮像素子により得られた画像中の特定の被写体の領域における特定の部分の位置を検出する第1の検出手段と、第1の検出手段よりも少ない演算量で、撮像素子により得られた画像中の特定の被写体の領域の位置を検出する第2の検出手段と、複数の測距点から焦点検出を行う測距点を選択する選択手段と、選択された測距点に対して自動焦点検出を行う自動焦点検出手段と、を有し、選択手段は、第の検出手段が検出した特定の被写体の領域における特定の部分の位置の情報を用いて、第の検出手段が検出した特定の被写体の領域の位置から画像中の特定の部分の位置を特定し特定した位置に基づいて、特定の部分に対応する測距点を選択する、ことを特徴とする撮像装置によって達成される。
このような構成により、本発明によれば、被写体の特定部分に自動的かつ高速に合焦させることが可能な撮像装置およびその制御方法が提供できる。
本発明の実施形態に係る撮像装置の一例としてのデジタル一眼レフカメラの側断面図 本発明の実施形態に係るデジタル一眼レフカメラの機能構成例を示すブロック図 本発明の実施形態に係るデジタル一眼レフカメラにおける測距点配置の例を示す図 図2のAF制御部、システム制御部、およびAE制御部の処理手順と相互関係を説明するための図 本発明の実施形態における詳細顔検出処理で得られる顔、目、およびテンプレート画像の位置関係の例を示す図 本発明の実施形態に係るデジタル一眼レフカメラにおけるテンプレート画像生成処理および被写体追尾処理の手順を示すフローチャート
以下、添付図面を参照して、本発明をその例示的な実施形態に基づいて詳細に説明する。
図1は、本発明の実施形態に係る撮像装置の一例としてのデジタル一眼レフカメラ(DSLR)の主要な構成部品の配置例を示す側断面図である。DSLRは、本体201と本体201の前面に装着される撮影レンズ202を有する。撮影レンズ202は交換可能であり、また本体201と撮影レンズ202は、不図示のレンズマウントにより機械的および電気的に接続される。撮影レンズ202の中には、フォーカシングレンズ213と絞り214があり、レンズマウント接点群215を介した、本体201による電気的な制御に従って動作する。
メインミラー203はハーフミラーであり、背面にはサブミラー204が設けられている。図示した、ミラーアップされていない状態では、撮影レンズ202からの光束の一部を反射して上方のファインダー光学系へ入射させ、透過光をサブミラー204で反射して下方のAF装置205へ入射させる。露光時などミラーアップされた状態では、光路から退避する。
AF装置205は位相差検出方式のAFセンサである。撮影レンズ202の二次結像面を、AF装置205が有する焦点検出ラインセンサ上に形成することによって、撮影レンズ202のデフォーカス量と焦点方向を検出し、検出結果をもとにフォーカシングレンズ213を駆動して自動焦点調節を行う。位相差検出方式による合焦制御については公知であり、本発明とは直接関係しないため、AF装置205の詳細な構成や合焦制御についての説明は省略する。なお、本実施形態において、AF装置205は図3に示すような複数の測距点(焦点検出領域)を有するものとする。
ピント板206はファインダー光学系としての撮影レンズ202の予定結像面に配置された透過型の液晶ディスプレイであり、撮影レンズ202が形成する視野の光学像に、測距点などの情報を重畳表示する。ユーザは、アイピース209からファインダー光路変更用のペンタプリズム207を通じてピント板206を観察することにより、撮影される視野や測距点を確認することができる。
AE装置208は、被写体の明るさを観測するため、複数の画素を持つAEセンサで光学ファインダー像を補助画像データに変換する。AEセンサは画素数を除いて撮像素子211と同様の構成であってよいが、主に被写体輝度の検出に用いられるためAEセンサと呼ぶ。AE装置208は、生成された補助画像データを用いて、被写体の明るさ検出と露出演算を行う。本実施形態において測光センサは図3に撮像範囲として示した領域を観測しており、必要に応じて複数の補助画像データを加算することで、低照度被写体に対するダイナミックレンジを拡大することができる。
本実施形態においては、補助画像データを用いて被写体の顔検出処理を行うものとする。ただし、動画撮影中(記録用の動画撮影中およびライブビュー表示用の動画撮影中)や、AEセンサを持たない撮像装置においては、撮像素子211で撮影した画像を用いて顔検出処理を行ってもよい。
撮像素子211はCMOSイメージセンサやCCDイメージセンサなどであり、光電変換素子を有する画素が複数配列されている。メインミラー203およびサブミラー204を撮影光路から退避させ、フォーカルプレーンシャッタ210を開くことにより、撮像素子211が露光され、被写体光学像が撮影される。
なお、本明細書では、撮像素子211による撮影を本撮影、AE装置208のAEセンサによる撮影を補助撮影と呼ぶ。また、本撮影によって生成される画像を本画像、補助撮影によって生成される画像を補助画像と呼ぶ。
ディスプレイ212は例えば液晶ディスプレイ(LCD)であり、ライブビュー画像を表示して電子ビューファインダーとして用いたり、各種の設定値、撮影情報、装置情報、GUI画面、撮影済み画像などの表示に用いたりする。
図2は、本実施形態のDSLRの機能的な構成例を示すブロック図である。なお、図1と同じ構成要素については、同一符号を付してある。
操作部301は、ユーザが本体201や撮影レンズ202に取り付けられたボタン、スイッチ、ダイヤル、接続機器等を介して行った操作を検知し、操作内容に応じた信号をシステム制御部306に出力する。操作部301は、レリーズボタンの押下量によってSW1信号とSW2信号を送信する。具体的には、レリーズボタンが半分程度押下されるとSW1信号を、レリーズボタンがさらに所定量押されるとSW2信号を、それぞれシステム制御部306に出力する。なお、SW1信号が出力されるレリーズボタンの押下状態を「半押し」、SW2信号が出力されるレリーズボタンの押下状態を「全押し」と呼ぶ。また、レリーズボタンの半押し状態が維持されている状態を「SW1保持状態」と呼び、全押し状態が維持されている状態を「SW2保持状態」と呼ぶ。また、操作部301は、レリーズボタンの押下量がSW1信号を送信するに満たない状態になるとSW1解除信号を、SW2信号を送信するに満たない状態になるとSW2解除信号を、それぞれシステム制御部306に出力する。
上述の通り、AF装置205は位相差検出方式による自動焦点検出および、焦点検出結果に基づく、フォーカシングレンズ213の合焦位置への駆動(自動焦点調節)を行う。AF装置205は、AF制御部304および測距センサ305で構成される。測距センサ305は例えば図3に示す61点の測距点配置に対応するラインセンサで構成され、サブミラー204を介して入射される光を電気信号に変換し、各測距点に対して一対の像信号をAF制御部304に出力する。AF制御部304は、測距センサ305から出力された一対の像信号の位相差に基づいて、図3に示す各測距点のデフォーカス量を計算し、合焦させる測距点を1つ選択する。そして、各測距点のデフォーカス量をデータとして持つデフォーカスマップと、選択した測距点の位置情報をシステム制御部306に出力する。システム制御部306は、選択測距点位置およびデフォーカスマップに基づいて焦点調節演算を行い、選択された測距点に合焦するようにフォーカシングレンズ213の位置を制御する。
AE装置208は自動露出演算および被写体追尾を行う。AE装置208はAE制御部302および測光センサ303で構成される。AE制御部302は測光センサ303から読み出した補助画像データに基づいて自動露出演算を行い、結果をシステム制御部306に出力する。システム制御部306はAE制御部302から出力された自動露出演算の結果に基づいて、絞り214の値(開口の大きさ)を制御し、本体201に入射する光量を調節する。
また、SW1保持状態および連写中において、AE制御部302は測光センサ303から順次取得した補助画像データを用いて被写体の検出および検出した被写体の追尾を行い、被写体の位置情報をシステム制御部306に出力する。システム制御部306はAE制御部302から出力された被写体の位置情報をAF制御部304に出力する。
AF制御部304は、システム制御部306から出力された被写体の位置もしくはその近傍にある測距点のデフォーカス量を計算し、計算結果をあらかじめ設定された閾値と比較する。比較の結果デフォーカス量が閾値以下であれば、システム制御部306に出力する選択測距点位置データを、AF制御部304が各測距点におけるデフォーカス量に基づいて選択した測距点から、被写体またはその近傍にある測距点に更新する。
システム制御部306は、操作部301からSW2信号が出力されると、メインミラー203(およびサブミラー204)をアップし、光路から退避させる。そして、フォーカルプレーンシャッタ210を駆動し、撮像素子211を自動露出演算の結果に基づく時間、露光する。露光時間が終了すると、システム制御部306は、メインミラー203(およびサブミラー204)をダウンさせる。
撮像素子211は露光時間中に撮影レンズ202を通して入射する光を各画素で電気信号に変換して画像データを生成し、システム制御部306へ出力する。システム制御部306は撮像素子211から出力された画像データに対して所定の画像処理などを適用し、ディスプレイ212で表示させたり、画像記憶装置307へ書き込んだりする。
続いて、本実施形態におけるDSLRの動作について説明する。
図4は、AF制御部304、システム制御部306、AE制御部302の動作シーケンスを示す図であり、前半がSW1保持状態における動作シーケンスを、後半がSW2保持状態の動作シーケンスを示している。なお、図4は各制御部における処理の手順や動作のタイミングを示すことを目的としたものであり、異なる制御部が行う処理はもちろん、同一の制御部が行う処理であっても、処理ブロックの大きさ(高さ)と処理時間の長さとはなんら関連性を有さない。
S401は、レリーズボタンが半押しされ、操作部301からシステム制御部306へSW1信号が出力されたタイミングを示している。SW1信号の入力を受けたシステム制御部306はAF制御部304へAF開始信号D01を出力し、AF制御部304は動作を開始する。
S403でAF制御部304は、測距センサ305に蓄積を行わせる。
S404でAF制御部304は、測距センサ305から像信号を読み出す。
S405でAF制御部304は、ユーザが任意に選択した測距点について、読み出した像信号に基づく焦点検出演算を行う。あるいは、AF制御部304は、読み出した像信号に基づいて複数の測距点に対して被写体の距離情報を求め、最至近の距離情報が得られた測距点を選択して焦点検出演算を行う。AF制御部304は、デフォーカスマップと選択測距点位置情報を含んだ焦点演算結果信号D02をシステム制御部306に出力する。
S442でシステム制御部306は、選択された測距点に合焦するように、焦点演算結果信号D02に基づいてフォーカシングレンズ213を駆動し、焦点調節を行う。焦点調節が完了すると、システム制御部306は、AF開始信号D03をAF制御部304に、AE開始信号D04をAE制御部302に、それぞれ出力する。
S406でAE制御部302は、AE開始信号D04を受信すると測光センサ303による補助撮影を行う。補助撮影は、AF開始信号D03を受信したAF制御部304による測距センサ305の蓄積と同時に開始されるため、測距センサ305および測光センサ303で得られる像信号は同じタイミングで撮影されたものとなる。
測光センサ303による補助画像の撮影は、露光(電荷蓄積)時間を2回に分割し、2回行う。そして、第2の検出手段としてのAE制御部302は、1回目の撮影で得られた画像を、予め記憶しておいたテンプレート画像を用いたテンプレートマッチングによる被写体追尾に用いる。またAE制御部302は、2回目の撮影で得られた画像と1回目の撮影で得られた画像とを加算し、本来の露光時間に対応した補助画像を生成し、補助画像に基づいて露出演算を行う。このように、補助撮影を2回の撮影に分けて行い、1回目の撮影で得られた画像を用いて被写体追尾処理を開始することで、1回の撮影で補助画像を得る場合よりも被写体追尾処理の開始を早めることができ、結果を早く得ることができる。以下、この処理についてさらに説明する。
S407でAE制御部302は、S406において測光センサ303で1回目の撮影を行って得られた画像データを読み出し、輝度信号および色差信号を持つ画像データを生成する。
S408でAE制御部302は被写体追尾処理を行う。AE制御部302は、過去に実行した追尾テンプレート生成処理(S413)で生成されたテンプレート画像を追尾対象画像とし、S407で生成した画像データとテンプレートマッチングを行う。そして、生成した画像中における追尾対象の位置(被写体座標)を検出する。
詳細な処理の説明は後述するが、S413で生成されたテンプレート画像がS412の詳細顔検出処理で得られた顔の座標から生成されたものであれば、AE制御部302は、テンプレートマッチングによって検出された被写体座標を顔の座標とする。また、AE制御部302は、過去に実行したS412で計算された顔と目の座標差分情報から、今回検出した顔領域における目の位置を算出し、顔と両目の座標を被写体追尾結果D05としてシステム制御部306に出力する。一方、テンプレート画像が選択測距点位置に基づいて生成されたものであれば、AE制御部302は、テンプレートマッチングによって検出された被写体座標だけを被写体追尾結果D05としてシステム制御部306に出力する。
つまり、テンプレート画像が詳細顔検出処理の結果に基づいて生成されたものである場合、テンプレート画像の生成時に用いた詳細顔検出処理の結果に基づき、テンプレートマッチングで検出された追尾対象の領域内における顔や目の座標の情報を得ることができる。このように、本実施形態では、詳細顔検出処理が完了するごとに、詳細顔検出処理に基づいてテンプレート画像を生成し、また顔の座標と目の座標との関係を記憶しておく。そのため、高速に処理可能なテンプレートマッチングを用いても、信頼できる目や顔の位置の情報を得ることが可能であり、動画撮影時や連写時においても各フレーム(コマ)について目や顔に合焦制御することが可能になる。
被写体追尾結果D5は、システム制御部306で中継され、被写体追尾結果D06としてAF制御部304に通知される。なお、テンプレート画像が生成されていない場合、S408の被写体追尾処理は省略される。
S409でAE制御部302は、測光センサ303による2回目の撮影を行い、S410で測光センサ303から画像データを読み出す。そしてAE制御部302は、S411で1回目と2回目の撮影で得られた画像データを加算して補助画像を生成し、補助画像に基づいて露出演算を行う。露出演算結果D08としてシステム制御部306に出力する。システム制御部306は露出演算結果D08に基づき絞り値とシャッタ速度を決定し、絞り214を制御する。
一方、システム制御部306がAE開始信号D4と同時に出力したAF開始信号D03を受け取ったAF制御部304は、上述したようにS403〜S405の処理を実行する。
S414でAF制御部304は、システム制御部306を通じて、被写体追尾結果D06を受け取る。被写体追尾結果D06が顔および目の位置を含む場合、目の位置もしくはその近傍の測距点を選択する。被写体追尾結果D06が目の位置を含まない場合、もしくは目の位置または目の位置から所定範囲内に測距点がなければ、AF制御部304は顔の位置について同様の測距点探索を行う。被写体追尾結果D06が目の位置を含まない場合は、被写体追尾処理に用いられたテンプレート画像が、詳細顔検出処理の結果に基づいて生成されていない場合である。目および顔の位置のいずれについても測距点が見つからない場合、AF制御部304はS405で選択した測距点を用いる。AF制御部304は、デフォーカスマップと選択測距点位置情報を含んだ焦点演算結果信号D07をシステム制御部306に出力する。なお、選択測距点位置は具体的な測距点の位置を表す情報であってもいいが、測距点ごとの位置に関する情報が別途利用できる場合には、測距点番号など、測距点を特定できる情報であってもよい。
システム制御部306は焦点演算結果信号D07に含まれる選択測距点位置情報とデフォーカスマップとに基づいて焦点調節を行う。また、システム制御部306は、焦点演算結果信号D07に含まれる選択測距点位置情報と、以前の選択測距点位置情報とから、選択測距点が変更されたかどうかを判別する。そして、システム制御部306は、選択測距点が変更(再選択)されていれば、測距点再選択フラグをTRUEに、選択測距点が変更(再選択)されていなければ、測距点再選択フラグをFALSEにする。システム制御部306は、焦点演算結果信号D07に含まれる選択測距点位置情報と、測距点再選択フラグをデータD10としてAE制御部302に通知する。
S412で、第1の検出手段としてのAE制御部302は、画像中に含まれる顔と目の詳細な検出(詳細顔検出処理)を行う。ここでの検出は、テンプレートマッチングよりも精度が良く、目の検出が可能な公知かつ任意の検出アルゴリズムを用いて実行することができ、またその詳細は本発明と直接関係しないので詳細な説明を省略する。
概要を述べれば、事前に学習させた検出器を用いる。顔の含まれるサンプル画像を十分な量用意し、それらから特徴量を抜き出す。特徴量としては、輝度差を用いたHaar−like特徴量やエッジを抜き出すEOH特徴量などを用いることができる。これらの特徴量から検出器をAdaBoostなどの学習アルゴリズムによって学習させておく。
例えばHaar−Like特徴量を用いる場合、S412でAE制御部302は補助画像を積分画像に変換し、各検出器のためのブロックに、平均輝度の差を算出して検出器に乗じることによって、顔の位置およびサイズと、目の位置とを求める。
顔の大きさ、顔の中心の座標と、顔の中心を原点とした座標系における目の座標をAE制御部302で記憶する。各座標の位置関係の例を図5に示す。
なお、S412で実行する詳細顔検出処理のステップは処理時間を有するため、動画撮影時の各フレームや、連写時の各コマに実施されるわけではない。S412の処理に進んだ際に、過去に撮影したフレームやコマに対する詳細顔検出処理が継続中であれば、現フレーム(コマ)における詳細顔検出は行わずに、次のステップへと進む。
S413で生成手段としてのAE制御部302は、データD10とS412で検出した顔の座標に基づいて追尾テンプレート生成処理を行う。S412で顔を検出できていれば、検出した顔の画像をテンプレート画像とする。これにより、S412で行われた詳細顔検出処理の結果が次のフレームやコマにおける被写体追尾に利用される。顔の領域とテンプレート画像との関係例を図5に示す。また、詳細顔検出処理で顔が検出できていなければ、AE制御部302はデータD10で通知された座標を中心とした所定の範囲をテンプレート画像とする。この処理の詳細については後述する。
このS403からS414までの処理(S442の焦点調節処理終了後の処理)を動画フレームまたは連写撮影された静止画のコマごとに繰り返すことで、カメラはフレーム(コマ)ごとに、AF制御、AE制御、および、被写体追尾処理を行うことが可能となる。
S501においてSW2信号の出力が開始されると、システム制御部306は、繰り返し処理におけるS411の露出演算を終えてから、本撮影処理を開始する。すなわち、S502でシステム制御部306はメインミラー203(およびサブミラー204)をアップさせて光路から退避させる。また、直前に得られた、露出演算結果ならびに選択測距点に対するデフォーカス量とに応じて、フォーカシングレンズ213の駆動および絞り214、フォーカルプレーンシャッタ210の制御を行い、S503で本撮影を実行する。その後、S504でシステム制御部306は、メインミラー203(およびサブミラー204)をダウンさせる。
また、システム制御部306は、SW2信号の出力が開始されると、AF制御部304にレリーズ開始信号D11、AE制御部302にレリーズ開始信号D12を出力する。レリーズ開始信号D11およびD12を受信したAF制御部304およびAE制御部302は、その時点で行っていた処理を中断する。そして、システム制御部306はミラーダウン動作S504を完了した際にSW2信号が出力されていれば、AF制御部304へAF開始信号D03を出力し、AE制御部302へAE開始信号D04を出力する。そして、連写の2コマ目の本撮影処理が開始される。2コマ目からはS403ならびにS406の処理から開始される。
なお、S502からS504の処理と並行して、AE制御部302ではS412の詳細顔検出を行っており、S413では検出した顔を新たなテンプレート画像として記憶する。このように、本撮影時も、測光センサ303による補助画像を2回の撮影に分けて実行することにより、レリーズボタンが全押しされてから顔の位置を被写体追尾処理により特定し、検出された顔や目に対応した測距点を選択するまでの処理時間を短縮できる。
続いて、S408における被写体追尾処理および、S413におけるテンプレート画像生成処理について、図6のフローチャートを用いて説明する。
まず、S413におけるテンプレート画像生成処理について図6(a)を用いて説明する。図6(a)はテンプレート生成処理の手順を示したフローチャートである。
S101でAE制御部302は、データD10に基づいて、S407で生成した画像(1回目の撮影で得られた画像)データからテンプレートとして抽出する領域を決定する。測距点再選択フラグがTRUEの場合には、直前に実行したS408の被写体追尾処理で検出した結果に基づく測距点が選択されている。そのため、AE制御部302は、被写体追尾処理で得られた位置を中心とする所定の大きさ並びに形状の領域をテンプレート領域に設定する。一方、測距点再選択フラグがFALSEの場合、データD10に含まれる選択測距点位置を中心とする所定の大きさ並びに形状の領域をテンプレート領域に設定する。
被写体追尾処理の結果が測距点の選択に採用されていない場合、追尾用のテンプレート画像としては不適切であるため、このような分岐処理を行う。
S102でAE制御部302は、テンプレート領域内の画素の色分布を計算し、追尾対象の特徴色を検出する。特徴色の検出は例えば以下のように行うことができる。まず、R信号、G信号、B信号のそれぞれの強さを0〜7の8段階に分割したRGBヒストグラム空間を用意する。このRGBヒストグラム空間は8×8×8の512のブロック(座標)を持つ。そして、テンプレート領域内の各画素の色信号をRGB色データに変換し、R信号、G信号、B信号のそれぞれの強さに基づいてRGBヒストグラム空間の対応するブロック(座標)に分類する。これをテンプレート領域内の全ての画素について行い、512のブロックのうち最も度数の多いブロックに対応する色(RGB)を、追尾対象の特徴色とする。
S108でAE制御部302は画像からテンプレート領域を切り出し、追尾処理用のテンプレート画像とする。
S109でAE制御部302は、テンプレート画像内の画素について、特徴色を有する画素を高輝度に、他の色の画素は低輝度に変換した輝度画像を生成し、最終的なテンプレート画像とする。
S408の被写体追尾処理ではこのテンプレート画像を用いてテンプレートマッチングを行う。これにより、追尾対象の特徴色を強調した状態で輝度画像によるテンプレートマッチングを行うことができるため、単純なカラー画像によるテンプレートマッチングを行うよりも演算負荷を小さくできる。
続いて、S408の被写体追尾処理について図6(b)で説明する。
図6(b)は被写体追尾処理のフローチャートである。
S121でAE制御部302は、測光センサ303からS407で生成したカラー画像データから、前のフレーム(コマ)に対するテンプレート生成処理(S413)で抽出された特徴色の画素を高輝度に、他の色の画素を低輝度に変換した輝度画像を生成する。
S122では、前のフレーム(コマ)に対するテンプレート生成処理(S413)で作成したテンプレート画像を用いたテンプレートマッチングにより、輝度画像の中でテンプレート画像と最も相関の高い領域を検出対象として検出する。
AE制御部302は、検出した追尾対象の位置を被写体追尾結果D5に含めてシステム制御部306に出力する。システム制御部306は追尾対象の位置を被写体追尾結果D06としてAF制御部304に出力する。
AF制御部304は、測距点再選択処理S414において、被写体追尾結果D06で通知された追尾対象位置を含む測距点あるいは近傍(所定範囲内)の測距点を探索する。そして、該当する測距点があれば、その測距点を新たな選択測距点とする再選択処理を行う。
以上説明したように、本実施形態では、特徴量を検出した高精度に顔および目を検出する詳細顔検出処理が完了していれば、その結果に基づいてテンプレート画像を生成し、テンプレートマッチングによる被写体追尾処理に利用する。そのため、信頼度の高いテンプレート画像を用いた、高速な被写体追尾処理が可能である。さらに、テンプレート画像生成時に、テンプレート画像における目や顔の位置を記憶しておくことにより、テンプレートマッチングにより検出された追尾対象の画像領域内における顔や目の位置の情報を得ることができる。従って、高速なテンプレートマッチングと、顔や目に対する自動合焦制御とを両立させることが可能となる。
また、詳細顔検出処理が完了する毎にテンプレート画像を更新するので、顔や目の位置についての情報の信頼性を維持することができる。
また、テンプレートマッチングに用いる画像を、本来の撮影時間より短い時間の撮影で得られた画像とすることにより、被写体追尾処理の開始タイミングを早めることができる。さらに、テンプレートマッチングを、テンプレート画像の特徴色を強調した輝度画像により行うため、テンプレートマッチングの演算量を低減することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
例えば、顔や目以外であっても、被写体が有する特徴的な部分に対する自動合焦制御に同様に適用することができる。
また、例えば、被写体の位置を認識する手法に関しては、テンプレートマッチングによる被写体追尾だけでなく、色情報を用いた追尾を用いても良い。他にも、オプティカルフローを利用した動体解析や、エッジ検出によるシーン認識技術を用いても良い。
また、顔検出の方法についても用いる特徴量は画像内の輝度差を用いるHaar−like特徴量によらず、エッジ方向を用いるEOH特徴量や、Edgelet特徴量など、センサの画像の特性など目的によって適宜選択することができる。
また、測光センサ303で補助画像を得る際の補助撮影を2回の撮影に分けることにより、顔に応じた測距点を選択するまでの処理時間を短縮することができる構成を例にあげて説明を行ったが、1回の補助撮影で補助画像を生成してもよい。フレームごとに1回の蓄積を行い、この蓄積された画像から追尾処理によって顔の位置を特定し、詳細顔検出にて検出した顔領域に対する目の位置の情報を用いることで、追尾処理によって顔の位置のどこに目が位置するかを算出する構成であってもよい。
また、測光センサ303で得られた画像を用いて追尾処理や詳細顔検出処理を行う構成でなくてもよい。ライブビュー画像のような表示用画像や、記録用画像を生成するための撮像素子で得られた画像に対して追尾処理や詳細顔検出処理を行う構成であってもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (7)

  1. 撮像素子と、
    前記撮像素子により得られた画像中の特定の被写体の領域における特定の部分の位置を検出する第1の検出手段と、
    前記第1の検出手段よりも少ない演算量で、前記撮像素子により得られた画像中の前記特定の被写体の領域の位置を検出する第2の検出手段と、
    複数の測距点から焦点検出を行う測距点を選択する選択手段と、
    前記選択された測距点に対して自動焦点検出を行う自動焦点検出手段と、を有し、
    前記選択手段は、前記第の検出手段が検出した前記特定の被写体の領域における前記特定の部分の位置の情報を用いて、前記第の検出手段が検出した前記特定の被写体の領域の位置から画像中の前記特定の部分の位置を特定し該特定した位置に基づいて、前記特定の部分に対応する測距点を選択する、
    ことを特徴とする撮像装置。
  2. 前記第1の検出手段は、前記画像の特徴量に基づいて前記特定の被写体の領域における前記特定の部分の位置を検出することを特徴とする請求項1に記載の撮像装置。
  3. 前記第2の検出手段は、画像間の相関演算により前記特定の被写体の領域の位置を検出することを特徴とする請求項1または請求項に記載の撮像装置。
  4. 前記第2の検出手段、前記第1の検出手段検出結果に基づいて生成されたテンプレート画像を用いたテンプレートマッチングにより前記特定の被写体の領域の位置を検出することを特徴とする請求項1乃至請求項のいずれか1項に記載の撮像装置。
  5. 前記テンプレート画像を生成する生成手段をさらに有し、
    前記生成手段は、前記第1の検出手段により前記特定の被写体の領域における前記特定の部分の位置が検出されている場合には前記第1の検出手段の検出結果に基づいて前記テンプレート画像を生成し、前記第1の検出手段により前記特定の被写体の領域における前記特定の部分の位置が検出されていない場合には、前記選択手段が選択した測距点の位置を用いて前記テンプレート画像を生成することを特徴とする請求項記載の撮像装置。
  6. 前記特定の被写体が顔であり、前記特定の部分が目であることを特徴とする請求項1乃至請求項の何れか1項に記載の撮像装置。
  7. 撮像素子と、
    前記撮像素子により得られた画像中の特定の被写体の領域における特定の部分の位置を検出する第1の検出手段と、
    前記第1の検出手段よりも少ない演算量で、前記撮像素子により得られた画像中の前記特定の被写体の領域の位置を検出する第2の検出手段と、
    を有する撮像装置の制御方法であって、
    選択手段が、前記第の検出手段が検出した前記特定の被写体の領域における前記特定の部分の位置の情報を用いて、前記第の検出手段が検出した前記特定の被写体の領域の位置から画像中の前記特定の部分の位置を特定し該特定した位置に基づいて、複数の測距点から前記特定の部分に対応する測距点を選択する選択工程と、
    自動焦点検出手段が、前記選択された測距点に対して自動焦点検出を行う自動焦点検出工程と、
    を有することを特徴とする撮像装置の制御方法。
JP2012089674A 2012-04-10 2012-04-10 撮像装置およびその制御方法 Active JP5950664B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012089674A JP5950664B2 (ja) 2012-04-10 2012-04-10 撮像装置およびその制御方法
US13/856,630 US8823863B2 (en) 2012-04-10 2013-04-04 Image capturing apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012089674A JP5950664B2 (ja) 2012-04-10 2012-04-10 撮像装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2013218177A JP2013218177A (ja) 2013-10-24
JP2013218177A5 JP2013218177A5 (ja) 2015-05-21
JP5950664B2 true JP5950664B2 (ja) 2016-07-13

Family

ID=49292020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012089674A Active JP5950664B2 (ja) 2012-04-10 2012-04-10 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US8823863B2 (ja)
JP (1) JP5950664B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8336118B2 (en) 2007-05-31 2012-12-25 Nike, Inc. Articles of apparel providing enhanced body position feedback
WO2014041733A1 (ja) * 2012-09-11 2014-03-20 ソニー株式会社 撮像装置およびフォーカス制御方法
WO2014041859A1 (ja) * 2012-09-11 2014-03-20 ソニー株式会社 撮像制御装置、撮像装置、および、撮像制御装置の制御方法
KR101614468B1 (ko) 2014-11-03 2016-04-21 백석대학교산학협력단 모바일 기기에서 블록 대비도를 이용한 눈 검출 및 개폐 인식방법
WO2016103962A1 (ja) * 2014-12-26 2016-06-30 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び合焦制御プログラム
JP6765860B2 (ja) * 2016-06-01 2020-10-07 キヤノン株式会社 撮像素子、撮像装置、および撮像信号処理方法
KR102317624B1 (ko) * 2017-03-27 2021-10-26 삼성전자 주식회사 전자 장치 및 그의 이미지 처리 방법
JP7145638B2 (ja) * 2018-05-07 2022-10-03 シャープ株式会社 電子機器、撮像方法、制御装置、及び制御プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215403A (ja) * 2000-02-01 2001-08-10 Canon Inc 撮像装置および焦点の自動検出方法
JP4692006B2 (ja) * 2005-02-15 2011-06-01 トヨタ自動車株式会社 画像処理装置及び画像処理方法
JP2007088814A (ja) * 2005-09-22 2007-04-05 Casio Comput Co Ltd 撮像装置、画像記録装置および撮像制御プログラム
JP4930509B2 (ja) * 2006-08-30 2012-05-16 株式会社ニコン 画像追尾装置、画像追尾方法、およびカメラ
JP4429328B2 (ja) * 2007-02-09 2010-03-10 キヤノン株式会社 自動合焦装置とその制御方法並びに撮像装置
JP5256847B2 (ja) * 2008-05-20 2013-08-07 株式会社ニコン 撮像装置
JP2010092199A (ja) 2008-10-07 2010-04-22 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP5233646B2 (ja) * 2008-12-17 2013-07-10 株式会社ニコン 画像追尾装置、撮像装置、画像追尾方法
JP5499531B2 (ja) * 2009-07-02 2014-05-21 株式会社ニコン 電子カメラ

Also Published As

Publication number Publication date
US20130265484A1 (en) 2013-10-10
JP2013218177A (ja) 2013-10-24
US8823863B2 (en) 2014-09-02

Similar Documents

Publication Publication Date Title
JP5950664B2 (ja) 撮像装置およびその制御方法
US9380200B2 (en) Image pickup apparatus and control method in which object searching based on an image depends on pixel combining on the image
JP2008061157A (ja) カメラ
CN103369251A (zh) 图像捕获装置和图像捕获装置的控制方法
US20130250165A1 (en) Method and apparatus for applying multi-autofocusing (af) using contrast af
JP6525809B2 (ja) 焦点検出装置及びその制御方法
JP5403111B2 (ja) 画像追尾装置
JP2013254166A (ja) 撮像装置及びその制御方法
JP5056136B2 (ja) 画像追尾装置
US8737831B2 (en) Digital photographing apparatus and method that apply high-speed multi-autofocusing (AF)
JP6427027B2 (ja) 焦点検出装置及びその制御方法、撮像装置、プログラム、並びに記憶媒体
JP6346484B2 (ja) 画像処理装置およびその制御方法
JP2009010672A (ja) 焦点検出装置および撮像装置
JP2013097312A (ja) 焦点調節装置及びその制御方法
JP2014206711A (ja) 撮像装置およびその制御方法
JP5930792B2 (ja) 撮像装置およびその制御方法
JP6997544B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2016099432A (ja) 焦点検出装置及び方法、プログラム、記憶媒体
JP2008187331A (ja) 画像追尾装置および撮像装置
JP2009017093A (ja) 画像認識装置、焦点調節装置および撮像装置
JP5981898B2 (ja) 撮像装置およびその制御方法
JP5447579B2 (ja) 追尾装置、焦点調節装置および撮影装置
US11968445B2 (en) Control apparatus for detecting and displaying line-of-sight position, control method thereof, and recording medium
JP7051613B2 (ja) 撮像装置およびその制御方法
JP2015045759A (ja) 撮像装置およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160607

R151 Written notification of patent or utility model registration

Ref document number: 5950664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151