JP2008064797A - 光学装置、撮像装置、光学装置の制御方法 - Google Patents

光学装置、撮像装置、光学装置の制御方法 Download PDF

Info

Publication number
JP2008064797A
JP2008064797A JP2006239482A JP2006239482A JP2008064797A JP 2008064797 A JP2008064797 A JP 2008064797A JP 2006239482 A JP2006239482 A JP 2006239482A JP 2006239482 A JP2006239482 A JP 2006239482A JP 2008064797 A JP2008064797 A JP 2008064797A
Authority
JP
Japan
Prior art keywords
face
focus detection
focus
imaging
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006239482A
Other languages
English (en)
Inventor
Masaaki Uenishi
正晃 上西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006239482A priority Critical patent/JP2008064797A/ja
Publication of JP2008064797A publication Critical patent/JP2008064797A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】AF処理のために選択された焦点検出領域以外に存在する被写体の合焦状態を、できるだけ多くの被写体について判定できるようにしつつも、焦点検出領域の数が増大することを抑制する。
【解決手段】撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段と、前記顔検出手段で検出された顔の顔情報を基に、主被写体の顔を選択する選択手段と、前記選択手段により選択された主被写体の顔とは異なる前記顔検出手段で検出された顔の顔情報に基づいて、前記主被写体の顔とは異なる顔に対して焦点検出できるように主被写体の顔の位置と当該主被写体の顔を基準とした複数の位置に焦点検出領域を設定する設定手段とを備えたことを特徴とする光学装置を提供する。
【選択図】図2

Description

本発明は、光学装置、撮像装置、および光学装置の制御方法に関し、特に、被写体に焦点を自動的に合わせるオートフォーカス機能のための技術に関する。
現在、被写体に自動的に焦点を合わせるAF(オートフォーカス)機能を備える撮像装置(例えば、デジタルカメラ)が普及している。AF機能を実現する方式(AF方式)の1つとして、CCDなどの撮像素子から得られる画像データのコントラスト情報を用いる方式(コントラスト検出方式)が知られている。コントラスト検出方式を採用する撮像装置は、画像内に設定された焦点検出領域(演算領域)において、画像データの高周波成分を積分することにより、コントラスト情報を取得する。そして、焦点検出領域のコントラストが最も高くなるように(即ち、高周波成分の積分値が最も大きくなるように)フォーカスレンズを移動させる焦点制御を行う。
焦点検出領域を設定する方式として、画像の中央付近に1つの焦点検出領域を設定する中央1点の焦点検出方式が知られている。また、画像内に複数の焦点検出領域を設定し、所定の条件に従って複数の焦点検出領域から選択された1つの焦点検出領域のコントラスト情報に基づいてフォーカスレンズを移動させる、多点の焦点検出方式も知られている。多点焦点検出方式は、ユーザが焦点を合わせたい被写体が画像の中央付近以外に位置する場合であっても比較的精度の高いAFを行うことができる可能性が高いという点で、中央1点焦点検出方式よりも優れている。多点焦点検出方式において複数の焦点検出領域を設定する基準や、複数の焦点検出領域から1つの焦点検出領域を選択する条件について、種々の提案がなされている。
特許文献1の合焦装置は、複数の焦点検出領域それぞれに対応する選択スイッチを備え、選択スイッチを介してユーザに指定された焦点検出領域を選択して焦点調節のために使用する。
また、特許文献2の多点焦点検出装置は、画像の中央付近に1つの焦点検出領域を設定して焦点検出を行う。そして、焦点検出結果に基づいて決定された所定の間隔で、画像の中央付近の焦点検出領域周辺に複数の焦点検出領域を設定してそれぞれの焦点検出領域に対して焦点検出を行う。そして、それぞれの焦点検出領域に対する焦点検出結果に基づいて、焦点調節のために使用する焦点検出領域を選択する。
また、画像内の被写体を検出し、被写体のいる領域に焦点検出領域を設定することにより、比較的精度の高いAFを行うことができる。例えば、特許文献3の自動合焦装置は、画像データから複数の人物の顔を検出した場合、所定の条件に従ってその中から選択した人物の顔の位置に焦点検出領域を設定して、設定された1つの焦点検出領域で得られたコントラスト情報をAFのために使用する。
特開昭62−19823号公報 特開2003−114373号公報 特開2003−107335号公報
一方で、AFのために使用する焦点検出領域を選択してAF処理を行った後、選択された焦点検出領域以外に存在する被写体にも焦点が合っているか否かを判定したいという要求がある。
しかしながら、特許文献1の合焦装置では、図17に示すように焦点検出領域の数を少なく設定すると、焦点検出領域に被写体を含まない場合があり、AF処理が適切に行われなかったり、選択された焦点検出領域以外に存在する被写体の合焦状態を判定できなかったりした。一方、図18に示すように焦点検出領域の数を画面いっぱいまで多く設定すると、選択された焦点検出領域以外の焦点検出領域に対して合焦状態を判定するための演算に長い時間を要する。
また、特許文献2の多点焦点検出装置は、画像の中央付近の焦点検出領域における焦点検出結果に基づいて他の焦点検出領域を設定するため、中央付近に被写体が存在しない場合、焦点検出領域を適切に設定できない可能性がある。
また、特許文献3の自動合焦装置は、画像における人物の顔の位置を考慮して焦点検出領域を設定するが、設定される焦点検出領域の数は1つだけである。そのため、選択された焦点検出領域以外に存在する被写体の合焦状態を判定できない。
本発明はこのような状況に鑑みてなされたものである。即ち、AF処理のために選択された焦点検出領域以外に存在する被写体の合焦状態を、できるだけ多くの被写体について判定できるようにしつつも、焦点検出領域の数が増大することを抑制することを可能にする技術を提供することを目的とする。
また、焦点検出領域をモニタ等の表示装置に表示し、ユーザに焦点検出領域を視認可能とするとともに、合焦状態を判別することができるよう合焦状態を表示するようにする。
上記課題を解決するために、本発明の技術的特徴としては、光学装置であって、撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段と、前記顔検出手段で検出された顔の顔情報を基に、主被写体の顔を選択する選択手段と、前記選択手段により選択された主被写体の顔とは異なる前記顔検出手段で検出された顔の顔情報に基づいて、前記主被写体の顔とは異なる顔に対して焦点検出できるように主被写体の顔の位置と当該主被写体の顔を基準とした複数の位置に焦点検出領域を設定する設定手段とを備えたことを特徴とする。
また、他の技術的特徴としては、光学装置であって、撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段と、前記顔検出手段により検出された顔の顔情報に対応する顔枠を表示手段に表示するよう制御する第1の表示制御手段と、前記顔検出手段で検出された顔の顔情報を基に焦点検出領域を設定し、前記撮像光学系の焦点状態を検出する焦点検出手段と、前記焦点検出手段の検出結果に応じて合焦と判断される領域を前記表示手段に表示する第2の表示制御手段とを備え、前記第1の表示制御手段により表示される顔枠の最大数よりも前記第2の表示制御手段により表示される領域の最大数の方が多いいことを特徴とする。
また、他の技術的特徴としては、撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段とを備えた光学装置の制御方法であって、前記顔検出手段で検出された顔の顔情報を基に、主被写体の顔を選択する選択工程と、前記選択工程により選択された主被写体の顔とは異なる前記顔検出手段で検出された顔の顔情報に基づいて、前記主被写体の顔とは異なる顔に対して焦点検出できるように主被写体の顔の位置と当該顔を基準とした複数の位置に焦点検出領域を設定する設定工程とを備えたことを特徴とする。
また、他の技術的特徴としては、撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段とを備えた光学装置の制御方法であって、前記顔検出手段により検出された顔の顔情報に対応する顔枠を表示手段に表示するよう制御する第1の表示制御工程と、前記顔検出手段で検出された顔の顔情報を基に焦点検出領域を設定し、前記撮像光学系の焦点状態を検出する焦点検出工程と、前記焦点検出工程の検出結果に応じて合焦と判断される領域を前記表示手段に表示する第2の表示制御工程とを備え、前記第1の表示制御工程により表示される顔枠の最大数よりも前記第2の表示制御工程により表示される領域の最大数の方が多いことを特徴とする。
尚、その他の本発明の特徴は、添付図面及び以下の発明を実施するための最良の形態における記載によって更に明らかになるものである。
以上の構成により、本発明によれば、AF処理のために選択された焦点検出領域以外に存在する被写体の合焦状態を、できるだけ多くの被写体について判定できるようにしつつも、焦点検出領域の数が増大することを抑制することが可能となる。また、ユーザにAF処理のために選択された焦点検出領域以外に存在する被写体の合焦状態をも分かりやすい形で提供することができる。
以下、添付図面を参照して、本発明の実施形態を説明する。以下で説明される個別の実施形態は、本発明の上位概念、中位概念および下位概念など種々の概念を理解するために役立つであろう。
尚、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。
[第1の実施形態]
<デジタルカメラ100の構成>
図1は、本発明の実施形態に係るデジタルカメラ100の構成を示す機能ブロック図である。
101はズーム機構を含む撮影レンズ、102は光量を制御する絞り及びシャッター、103はAE(自動露出)制御部、104は後述する撮像素子上に焦点を合わせるためのフォーカスレンズである。これらを撮像光学系ともいう。
105はAF(オートフォーカス)制御部、106はストロボ、107はEF処理部である。また、108は撮像光学系を透過した被写体からの入射光を電気信号(画像データ)に変換する撮像素子である。109は撮像素子108の出力ノイズを除去するCDS回路やA/D変換前に行う非線形増幅回路を含むA/D変換部、110は画像処理部、111はWB(ホワイトバランス)処理部である。
112はA/D変換された画像データをJPEG形式など各種フォーマットに変換するフォーマット変換部である。113は高速な内蔵メモリ(例えばランダムアクセスメモリなど。以下「DRAM」と記す)である。DRAM113は、一時的に画像を記憶するための高速バッファとして、あるいは、画像の圧縮・伸張(例えば、JPEG圧縮・伸長)における作業用メモリなどに使用される。
114はメモリカードなどの記録媒体とそのインターフェースからなる画像記録部である。115はデジタルカメラ100全体を制御するシステム制御部、116は画像表示用メモリ(以下「VRAM」と記す)である。
117は液晶パネルなどにより構成される表示部であり、撮像した画像、操作補助のための情報(例えば、メニュー画面など)、及び、デジタルカメラ100の状態の情報(例えば、電池残量など)などを表示する。また、撮像時には、撮像領域の画像を表示するEVFとして機能し、併せて、焦点検出領域なども表示するよう表示制御がなされる。
118はユーザがデジタルカメラ100を操作するための操作部である。操作部118には、例えば次のようなものが含まれる。即ち、デジタルカメラ100の撮影機能や画像再生時の設定などの各種設定を行うメニュースイッチ、撮影レンズのズーム動作を指示するズームレバー、撮影モードと再生モードの動作モードを切り替える切り替えスイッチ、などである。
119は顔検出モードをON又はOFFに切り替える等の設定を行う撮影モードスイッチである。顔検出モードの詳細は後述するが、簡単に説明すると、デジタルカメラ100が撮像領域において人物の顔を検出し、AF処理のために活用する撮影モードである。
120はデジタルカメラ100に電源を投入するためのメインスイッチ、121はAFやAE等の撮像準備動作を行うためのスイッチ(以下「SW1」)、122はSW1(121)の操作後、撮影を行うための撮影スイッチ(以下「SW2」)である。一般的には、SW1(121)及びSW2(122)は、シャッターボタン(不図示)としてデジタルカメラ100に備えられ、シャッターボタンの半押しによりSW1(121)が操作され、シャッターボタンの全押しによりSW2(122)が操作される。
123は画像処理部110で処理された画像データにおいて人物の顔を検出する処理(顔検出処理)を行う顔検出モジュールである。顔検出モジュール123は、検出した単数又は複数の顔情報(各顔の位置・大きさ・信頼度など)と、顔情報に基づいて決定された各顔の優先順位とをシステム制御部115に送る。優先順位は、検出された各顔に関して、AF処理時に重視される順を示し、例えば、撮像領域の中心に近く、サイズが大きく、信頼度が高い顔ほど優先順位は高くなる。信頼度とは、検出された顔が実際に顔である確からしさを示す指標である。
尚、本実施形態における顔検出には、公知の顔検出技術を利用できる。公知の顔検出技術としては、ニューラルネットワークなどを利用した学習に基づく手法、テンプレートマッチングを用いて目、鼻、口等の形状に特徴のある部位を画像から探し出し、類似度が高ければ顔とみなす手法などがある。また、他にも、肌の色や目の形といった画像特徴量を検出し、統計的解析を用いた手法等、多数提案されている。一般的にはこれらの手法を複数組み合わせ、顔検出の精度を向上させている。具体的な例としては特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。
顔検出処理により、顔情報として、画像データにおける各顔の位置(中心位置)を示す座標、大きさ、信頼度などが得られる。ここで、顔の大きさは、正方形の一辺のサイズ(典型的には、ピクセル数)により示されるものとする。
<AF処理の流れ>
図2を参照して、本発明の実施形態に係るAF処理の流れを説明する。メインスイッチ120がONになると、本フローチャートの処理が開始する。
ステップS201で、システム制御部115は、撮影モードスイッチ119によって顔検出モードがONに設定されているか否かを判定する。顔検出モードがONであればステップS202へ進み、ONでなければステップS206へ進む。
ステップS202で、顔検出モジュール123は、画像処理部110から入力された画像データに対して顔検出処理を実行して顔情報及び顔の優先順位を取得する。
ステップS203で、システム制御部115は、SW1(121)がONであるか(即ち、操作されているか)否かを判定する。SW1(121)がONであればステップS204へ進み、SW1(121)がONでなければステップS202へ戻る。
ステップS204で、システム制御部115は、ステップS203でSW1(121)がONとなる直前に実行されたステップS202での顔検出処理により顔が検出されたか否か(以下、「最新の顔検出処理結果」と呼ぶ)を判定する。顔が検出されていればステップS205へ進み、顔が検出されていなければステップS207へ進む。
ステップS205で、システム制御部115は、最新の顔検出処理結果に基づいて、画像処理部110から入力された画像データに対して焦点検出領域を設定する。ステップS205における焦点検出領域設定処理の詳細は、図3乃至図12を参照して後述する。
ステップS201で顔検出モードがONでないと判定された場合、ステップS206で、システム制御部115は、SW1(121)がONであるか否かを判定する。SW1(121)がONであればステップS207へ進み、SW1(121)がONでなければステップS201へ戻る。
ステップS207で、システム制御部115は、従来の方式(例えば、中央1点焦点検出方式)に従い、画像処理部110から入力された画像データに対して焦点検出領域を設定する。
ステップS208で、システム制御部115は、ステップS205又はステップS207で設定した焦点検出領域(複数設定されている場合は各焦点検出領域)のコントラストを演算し、演算結果に基づいてAF処理を行う。つまり、焦点検出領域にて検出された焦点状態に基づいて、撮像光学系の位置を制御して、焦点調節を行うAF処理を行う。
<焦点検出領域設定処理の詳細>
図3乃至図12を参照して、図2のステップS205における焦点検出領域設定処理の詳細を説明する。
まず、図3のステップS301で、システム制御部115は、画像処理部110から入力された画像データに対し、最新の顔検出処理結果として優先順位が最上位である顔(以下、「主顔」と呼ぶ)の位置に1つの焦点検出領域(以下、「主焦点検出領域」と呼ぶ)を設定する。ここで、図6に示すように、画像処理部110から入力された画像データが示す画像の水平方向のサイズをSIZE_X(単位は例えばピクセル。以下同じ)、垂直方向のサイズをSIZE_Yとする。また、主顔の位置(中心位置)の座標を(Sx,Sy)、主顔のサイズをWIDとする。このとき、システム制御部115は、主焦点検出領域の中心座標を(Sx,Sy)、サイズ(垂直方向及び水平方向のサイズ)をWIDとして主焦点検出領域を設定する。ただし、主焦点検出領域の位置及びサイズは、主顔の位置及びサイズと関連があればどのように設定されてもよく、例えば、検出した顔の両目の中心座標を主焦点検出領域の中心座標としても構わない。
ステップS302で、システム制御部115は、主焦点検出領域の左右(水平方向)に設定する焦点検出領域の数(N_right,N_left)及び間隔(INT_X)を計算する。詳細は図4を参照して後述する。
ステップS303で、システム制御部115は、主焦点検出領域の上下(垂直方向)に設定する焦点検出領域の数(N_up,N_down)及び間隔(INT_Y)を計算する。詳細は図5を参照して後述する。
ステップS304で、システム制御部115は、ステップS302及びステップS303で計算した焦点検出領域の数及び間隔に従い、画像処理部110から入力された画像データに対して主焦点検出領域以外の焦点検出領域を設定する。
ステップS304における焦点検出領域の設定の一例を示す。例えば、N_right=3,N_left=2,N_up=1,N_down=2,INT_X=3,INT_Y=3とする。この場合、図7に示すように、システム制御部115は、主焦点検出領域701の上下左右にそれぞれ(1,2,2,3)の焦点検出領域を、水平方向に3ピクセル、垂直方向に3ピクセルの間隔で設定する。つまり、主焦点検出領域701を基準としてその周辺に焦点検出領域を設定する。その結果、(N_left+N_right+1)×(N_up+N_down+1)のマトリクス状に、間隔INT_X,INT_Yを空けるように焦点検出領域が設定される。
次に、図4を参照して、図3のステップS302における処理の詳細を説明する。
ステップS401で、システム制御部115は、変数の初期化を行う。ここで、N_rightは、主焦点検出領域の右側に設定される焦点検出領域の数を示し、N_leftは、主焦点検出領域の左側に設定される焦点検出領域の数を示す。Ni_right及びMaxN_rightは、N_rightを算出する過程で使用される一時的な変数であり、Ni_left及びMax_N_leftは、N_leftを算出する過程で使用される一時的な変数である。MaxINT_Rは、主顔と、主顔から右側へ最も離れている顔との距離を示し、MaxINT_Lは、主顔と、主顔から左側へ最も離れている顔との距離を示す。これらの変数は全て、0に初期化される。Xは、図2のステップS202で検出された顔の数を示す。各変数の値は、例えば、デジタルカメラ100のDRAM113に格納することができる。
ステップS402で、システム制御部115は、X=1であるか否かを判定する。X=1でなければ、ステップS403に進む。X=1である場合、図2のステップS202で検出された顔が1つだけであり、主顔以外の顔は画像中に存在しない。従って、図3のステップS301で設定された主焦点検出領域以外の焦点検出領域を設定する必要はなく、N_right=N_left=0のままでよいため、システム制御部115は、図4のフローチャートの処理を終了する。
ステップS403で、システム制御部115は、何番目の優先順位の顔について処理を行っているかを示す変数iを0に初期化する。以下、システム制御部115は、図2のステップS202で検出された顔のうち、優先順位が(i+2)番目の顔に対して処理を行う。
ステップS404で、システム制御部115は、(i+2)番目の優先順位の顔の中心座標を変数(Fxi,Fyi)に代入する。
ステップS405で、システム制御部115は、Fxi≧(SIZE_X-1)-WIDであればFxi=(SIZE_X-1)-WIDとし、Fxi≦WIDであればFxi=WIDとする。ステップS405における処理は、設定される焦点検出領域が撮像領域からはみ出さないようにするために行われる。
ステップS406で、システム制御部115は、Fxi-Sx≧WID/2であるか否かを判定する。Fxi-Sx≧WID/2であれば、(i+2)番目の優先順位の顔が、主顔よりも右側にあると判断して、ステップS407へ進む。そうでなければ、ステップS418へと進む。
ステップS407で、システム制御部115は、N_right=MAX[MaxN_right,N_right]の演算を行う(MAX[A,B]は、AとBを比較して大きい方の値を選択することを意味する)。これは、次の理由による。即ち、後述するステップS416で、顔数x=2の場合に焦点検出領域の間隔INT_Xを設定するためにNi_rightを減算することによりN_rightも1だけ小さくなる。しかし、後述するように、x>2の場合はINT_Xが0に戻されるので、1だけ小さくされていたN_rightの値に1を加える必要があるからである。従って、ステップS407における処理は、i=1の場合に意味を持つ。
ステップS408で、システム制御部115は、MaxINT_Rの算出及び更新を行う。
ステップS409で、システム制御部115は、Ni_right=ROUND[(Fxi-Sx)/WID](ROUND[A]は、Aの少数以下を四捨五入することを示す)により、主焦点検出領域の右側に設定される焦点検出領域の数を算出する。このとき、実際にはまだ焦点検出領域は設定されていないが、図8(a)に示すように、主焦点検出領域の右端から右方向へ主焦点検出領域と同じ大きさの焦点検出領域が敷きつめられる。
ステップS410で、システム制御部115は、MaxN_right=MAX[MaxN_right,Ni_right]により、後述するステップS416でNi_rightが減算される前の値を、MaxN_rightに保存する。
ステップS411で、システム制御部115は、i=0、かつ、Ni_right≦WHmaxであるか否かを判定する。WHmaxは、水平方向において主焦点検出領域以外に設定可能な焦点検出領域数の最大値である。条件を満たせば、ステップS412に進み、そうでなければ、ステップS417に進む。
ステップS412で、システム制御部115は、主焦点検出領域の右端からNi_right個の焦点検出領域を敷きつめたときのNi_right個目の焦点検出領域の中心と、優先順位が2番目の顔の中心との間隔INT_Hを算出する。
ステップS413で、システム制御部115は、INT_H<0であるか否かを判定する。INT_H<0である場合は、Ni_right個目の焦点検出領域の中心が、優先順位が2番目の顔の中心の右側に位置しており、ステップS415へ進む。そうでなければ、ステップS414へ進む。
ステップS414で、システム制御部115は、INT_X=INT_H/Ni_rightにより、INT_Xを求める。これにより、Ni_right個目の焦点検出領域の中心が、優先順位が2番目の顔の中心に位置し、かつ、Ni_right個の焦点検出領域が等間隔に設定されるように間隔INT_Xが決定される。このとき、実際にはまだ焦点検出領域は設定されていないが、図8(b)に示すようになる。
ステップS415で、システム制御部115は、Ni_right=1であるか否かを判定する。Ni_right=1であればステップS417へ進み、そうでなければステップS416へ進む。
ステップS416で、システム制御部115は、Ni_rightの値を1だけ減じ、INT_X=(INT_H+WID)/Ni_rightにより、INT_Xを求める。これにより、主焦点検出領域の右側の焦点検出領域の数が1だけ減らされるが、Ni_right個目の焦点検出領域の中心が、優先順位が2番目の顔の中心に位置し、かつ、Ni_right個の焦点検出領域が等間隔に設定される。
ステップS417で、システム制御部115は、焦点検出領域の間隔INT_Xを0設定する。即ち、検出された顔が3つ以上ある場合、Ni_rightがWHmaxを超えた場合、及び、INT_H<0かつNi_right=1の場合は、いずれも、INT_X=0となる。これにより、水平方向の焦点検出領域は隙間無く敷き詰められるため、焦点検出領域の隙間に顔が存在するためにその顔がAF処理のために活用されないという事態の発生が抑制される。
ステップS418で、システム制御部115は、Fxi-Sx≦WID/2であるか否かを判定する。Fxi-Sx≦WID/2であれば、(i+2)番目の優先順位の顔が、主顔よりも左側にあると判断して、ステップS419へ進む。そうでなければ、水平方向において、(i+2)番目の優先順位の顔が、主顔とほぼ同じ位置にあると判断して、ステップS430へ進む。
ステップS419乃至429における処理は、左右が反対になることを除き、ステップS407乃至417と同様であるため、説明を省略する。図9は、主顔の左側の焦点検出領域について、図8に対応する図である。
ステップS430で、システム制御部115は、水平方向において主焦点検出領域が(i+2)番目の優先順位の顔を含んでいるため、N_rightもN_leftも増加しないようにするために、Ni_right=Ni_left=0とする。
ステップS431で、システム制御部115は、Ni_rightがN_rightを超えた場合、N_rightをNi_rightで更新する。同様に、Ni_leftがN_leftを超えた場合、N_leftをNi_leftで更新する。
ステップS432で、システム制御部115は、iに1を加える。
ステップS433で、システム制御部115は、検出した顔全てに対してNi_right、Ni_leftを計算したか(上述の処理を行ったか)否かを判定する。検出した顔全てに対して上述の処理を行っていればステップS434へ進む。そうでなければステップS404へ戻り、次の優先順位の顔に対して同様の処理を行う。
ステップS434で、システム制御部115は、主焦点検出領域の左右に設定される焦点検出領域の和(N_right+N_left)がWHmaxを超えていないか否かを判定する。超えていれば、ステップS435に進む。超えていなければ、本フローチャートの処理を終了し、図3のステップS303へ進む。
ステップS435で、システム制御部115は、MaxINT_R>MaxINT_Lであるか否かを判定する。MaxINT_R>MaxINT_Lであれば、ステップS436へ進み、そうでなければステップS437へ進む。
ステップS436で、システム制御部115は、WHmax個の焦点検出領域をMaxINT_R:MaxINT_Lの比で左右に分配するようにN_right及びN_leftを再計算する。そして、主焦点検出領域から右側に最も離れている顔の中心にN_right個目の焦点検出領域の中心が位置するようにINT_Xを算出し、図3のステップS303へ進む。例えば、図10に示すように、WHmax=6、WID=16、MaxINT_R=50、MaxINT_L=80の場合、N_right=4、N_left=2、INT_X=4なる。
ステップS437で、システム制御部115は、ステップS437と同様の考え方でWHmax個の焦点検出領域をMaxINT_R:MaxINT_Lの比で左右に分けるようにN_right及びN_leftを再計算する。そして、主焦点検出領域から左側に最も離れている顔の中心にN_left個目の焦点検出領域の中心が位置するようにINT_Xを算出し、図3のステップS303へ進む。
以上の処理により、主焦点検出領域の左右それぞれに設定されるべき焦点検出領域の数と、焦点検出領域同士の間隔が決定される。
尚、ステップS436及びS437における処理は、水平方向の焦点検出領域の数がWHmaxを超えないようにするためのものであるので、この目的を達成できれば、ここで説明した以外の任意の処理が行われてもよい。
次に、図5を参照して、図3のステップS303における処理の詳細を説明する。
垂直方向の焦点検出領域の数も、図4と同様の方法で決定することができる。しかし、本実施形態では、図5に従い、必ずINT_Y=0とし、主焦点検出領域の下側には必ず(例え主顔以外の顔が検出されなかった場合でも)いくつかの焦点検出領域を設定する。これは、主焦点検出領域の下側には主被写体の体があり、AF処理のために活用できると考えられるためである。よって、主被写体の体に対して焦点検出することを考えなければ、水平方向と同様の方法で焦点検出領域の数及び間隔を決定してもよい。
ステップS501で、システム制御部115は、変数の初期化を行う。具体的には、INT_Y=0とし、主焦点検出領域の下側に設定する焦点検出領域の数N_downを、N_down0とNawのうちの小さいほうから選択する。ここで、N_downは、主焦点検出領域の下側に設定可能な焦点検出領域の最大数を示し、N_down0=RD[((SIZE_Y-1)-Sy-WID/2)/WID](RD[A]は、Aの少数以下を切り捨てて整数にすることを示す)により求められる。また、Nawは、主焦点検出領域の下側に顔が存在しなくても、主焦点検出領域の下側に設定する焦点検出領域の目標数を示し、事前に定められて例えばデジタルカメラ100のSRAM(不図示)に格納されている。
また、N_upは、主焦点検出領域の上側に設定される焦点検出領域の数を示す。Ni_up及びNi_downはそれぞれ、N_up及びN_leftを算出する過程で使用される一時的な変数である。N_up、Ni_up、及び、Ni_downは、0に初期化される。
ステップS502で、システム制御部115は、X=1であるか否かを判定する。X=1でなければ、ステップS503に進む。X=1である場合、図2のステップS202で検出された顔が1つだけであり、主顔以外の顔は画像中に存在しない。従って、N_down=MIN[Naw,N_down0]、N_up=0のままでよいため、システム制御部115は、図5のフローチャートの処理を終了する。
ステップS503で、システム制御部115は、何番目の優先順位の顔について処理を行っているかを示す変数iを0に初期化する。以下、システム制御部115は、図2のステップS202で検出された顔のうち、優先順位が(i+2)番目の顔に対して処理を行う。
ステップS504で、システム制御部115は、(i+2)番目の優先順位の顔の中心座標を変数(Fxi,Fyi)に代入する。
ステップS505で、システム制御部115は、Fyi≧(SIZE_Y-1)-WIDであればFyi=(SIZE_Y-1)-WIDとし、Fyi≦WIDであればFyi=WIDとする。ステップS505における処理は、設定される焦点検出領域が撮像領域からはみ出さないようにするために行われる。
ステップS506で、システム制御部115は、Fyi-Sy≧WID/2であるか否かを判定する。Fyi-Sy≧WID/2であれば、(i+2)番目の優先順位の顔が、主顔よりも下側にあると判断して、ステップS507へ進む。そうでなければ、ステップS509へ進む。
ステップS507で、システム制御部115は、Ni_down=ROUND[(Fyi-Sy)/WID]により、主焦点検出領域の下側に設定される焦点検出領域の数を算出する。このとき、実際にはまだ焦点検出領域は設定されていないが、図11に示すように、主焦点検出領域の下端から下方向へ主焦点検出領域と同じ大きさの焦点検出領域が敷きつめられる。
ステップS508で、システム制御部115は、Ni_downがWVmax-N_upを超えているか否かを判定し、超えている場合はNi_down=WVmaxとする。WVmaxは、垂直方向において主焦点検出領域以外に設定可能な焦点検出領域数の最大値である。
ステップS509で、システム制御部115は、Fyi-Sy≦WID/2であるか否かを判定する。Fyi-Sy≦WID/2であれば、(i+2)番目の優先順位の顔が、主顔よりも上側にあると判断して、ステップS510へ進む。そうでなければ、垂直方向において(i+2)番目の優先順位の顔が、主顔とほぼ同じ位置にあると判断して、ステップS512へ進む。
ステップS510及び511における処理は、上下が反対になることを除き、ステップS507及び508と同様であるため、説明を省略する。図12は、主顔の上側の焦点検出領域について、図11に対応する図である。
ステップS512で、システム制御部115は、垂直方向において主焦点検出領域が(i+2)番目の優先順位の顔を含んでいるため、N_upもN_downも増加しないようにするために、Ni_up=Ni_down=0とする。
ステップS513で、システム制御部115は、Ni_upがN_upを超えた場合、N_upをNi_upで更新する。同様に、Ni_downがN_downを超えた場合、N_downをNi_downで更新する。
ステップS514で、システム制御部115は、iに1を加える。
ステップS515で、検出した顔全てに対してNi_up、Ni_downを計算したか(上述の処理を行ったか)否か、或いは、垂直方向に設定する焦点検出領域の数がWVmaxとなっているか否かを判定する。いずれかの条件を満たしていれば、本フローチャートの処理を終了し、図3のステップS304へ進む。いずれの条件も満たしていなければ、ステップS505へ戻り、次の優先順位の顔に対して同様の処理を行う。
以上の処理により、主焦点検出領域の上下それぞれに設定されるべき焦点検出領域の数と、焦点検出領域同士の間隔(本実施形態では0に固定)が決定される。
また、本実施形態では、設定可能な焦点検出領域数に制限(WHmax,WVmax)を持たせたが、制限をなくしても構わない。
また、本実施形態では、図4のステップS433に示されるように、検出されたすべての顔に対して水平方向の焦点検出領域の数などを決定するための処理が行われたが、所定の優先順位の顔までしか処理されないようにステップS433を変更してもよい。これは、図5のステップS515についても同様である。
図13及び図14は、図3に示す処理により設定された焦点検出領域の例を示す図である。
図13に示すように、検出された顔が2つであれば、INT_Xは所定の値(場合によっては0のこともある)を持ち、INT_Yは0となる。そして、2つの顔が対角に配置されるように、マトリクス状に焦点検出領域が設定される。
図14に示すように、検出された顔が3つであれば、INT_X=INT_Y=0となる。そして、すべての顔がカバーされるように、マトリクス状に焦点検出領域が設定される。
ここで重要なことは、上述の処理に従って焦点検出領域が設定された場合、図13及び図14からも理解できるように、マトリクス状に設定された焦点検出領域の四隅のうち、少なくとも2箇所に被写体が含まれることである。従って、被写体が全く存在しない部分にまでマトリクスが広がって焦点検出領域の数が増大するという事態を抑制することができる。
ただし、図5の処理において、Ni_downがNaw(或いはN_down0)以上になることがなく、N_down=Naw(或いは、同様に、N_down0)となった場合は注意が必要である。この場合、マトリクス状に設定された焦点検出領域の四隅のいずれにも被写体が含まれない場合もある。しかし、この場合でも、マトリクス状に設定された焦点検出領域の右端の列における少なくとも1つの焦点検出領域と、左端の列における少なくとも1つの焦点検出領域とに、被写体が含まれる。
<第1の実施形態のまとめ>
以上説明したように、本実施形態によれば、デジタルカメラ100の顔検出モジュール123は、撮像領域の画像データ(即ち、画像処理部110から入力される画像データ)から、人物の顔を検出する。そして、システム制御部115は、検出された顔それぞれの顔情報に基づいて、焦点検出領域のサイズ、水平方向及び垂直方向それぞれの数、水平方向及び垂直方向それぞれの間隔を算出する。そして、撮像領域の画像データに焦点検出領域をマトリクス状に設定し、AF処理に活用するために、設定した焦点検出領域それぞれのコントラストを演算する。
これにより、撮像領域に複数の被写体が存在する場合に、複数の被写体それぞれが撮像領域のどこに位置しても、撮像装置が各被写体をAF精度の向上のために活用することが可能となる。併せて、焦点検出領域の数が増大することを抑制することも可能となる。更に、システム制御部ではなく不図示のコントラスト演算部が焦点検出領域のコントラストを演算する場合に、焦点検出領域がマトリクス状に設定されるため、コントラスト演算部の構成を単純にすることができる。
[第2の実施形態]
次に、図15に示すフローチャートを参照しながら第2の実施形態におけるAF処理の流れについて説明する。本実施形態は、第1の実施形態の構成と略同様であり、同一の部分についての説明は省略する。
メインスイッチ120がONになると、まずステップS201へ進む。ステップS201では撮影モードスイッチ119により顔検出モードがONと設定されているかどうかを調べ、顔検出モードがONになっていればステップS202へと進み、ONになっていなければ、ステップS206へと進む。ステップS202では顔検出モジュール123において顔検出処理を実行して、顔情報及び顔の優先順位を取得し、ステップS209へと進む。ステップS209では、表示部117において、検出した顔の中で優先順位が最大Z個までの顔位置に枠を表示する。顔のステップS203ではSW1の状態を調べ、SW1がONであればステップS204へと進み、SW1がONでなければ、ステップS202へと進む。ステップS204では、ステップS203でSW1がONとなる直前のステップS202での顔検出処理(以下、この処理結果を最新の顔検出処理結果と記す)により顔が検出されたかどうかを調べ、顔が検出されていればステップS210へと進み、顔が検出されていなければステップS207へと進む。ステップS210では、検出した顔の中で合焦すると推定される顔を選択してステップS211へと進む。ここで、表示部117において、選択した顔位置に枠を表示してもよい。ステップS210での顔選択については後に説明する。ステップS211では、ステップS210で選択した合焦すると推定される顔情報に基づいて焦点検出領域を設定して、S212へと進む。ステップS211での焦点検出領域設定については後に説明する。ステップS212では、ステップS211で設定した複数の焦点検出領域の中の焦点検出領域と顔枠を対応づけたあと焦点検出を行い、ステップS213へと進む。ステップS212での顔枠と焦点検出領域との対応づけ及びAF動作については後に説明する。ステップS213では、ステップS212で焦点検出結果において合焦であると判別される枠に対応した顔枠を最大Y個まで合焦表示する。ここで、ステップS209で表示する検出した顔枠の最大数ZとステップS212で合焦表示する顔枠の最大数Yは異なる値で設定する(例えばY>Zとなるように)。これにより、撮影前においては表示する検出した顔枠数を少なくして画角設定において画面が煩雑になることを防ぐことができ、撮影時には合焦表示する顔枠数を多くして、ユーザにインパクトを与えることができる。
ステップS207では、通常の1点または多点の焦点検出領域を設定してステップS208へと進む。ステップS208では、ステップS207で設定した焦点検出領域においてAF動作を行い、ステップS214へと進む。ステップS214では、ステップS208において焦点検出結果が合焦である枠を表示部117で合焦表示する。
以下、図15のフローチャートにおけるステップS210の顔選択について説明する。
まず、実際の人の標準顔サイズ(Lstd)を想定する。最新の顔検出処理結果において優先順位が最上位である顔(以下、主顔と記す)の像面上での検出サイズをLmとし、焦点距離をfとすると、主顔までの推定距離dmは
dm = f ( 1 + Lstd / Lm )
で求めることができる。このように、顔領域のサイズに基づいてその顔領域までの距離を推定することで、例えばコントラスト不足などにより焦点検出ができないような状況であっても、顔領域までの距離を推定することが可能となる。
同様に、主顔以外に検出された顔の検出サイズをLi(i=0,1,2,・・・N)とすると、
それぞれの顔までの推定距離diは
di = f ( 1 + Lstd / Li )
で求められる。
また、合焦距離をdA、許容錯乱円径をσ、光学系のF値をFとすると、dAから深度内に入る後方距離dBおよび前方距離dCは、
dB = dA + FσdA2 / ( f2 - dAFσ )
dC = dA + FσdA2 / ( f2 + dAFσ )
で求められる。
以上より、
dC < dm < dB
を満たすdiに対応した顔領域が主顔に対して被写界深度内にあると判定し、次のステップS211で焦点検出領域を設定するときに選択する。
尚、図15のフローチャートにおけるステップS211の焦点検出領域設定のサブルーチンは前述の第1の実施形態1の図3で説明したフローと同じであるので説明を省略する。
次に、図15のフローチャートにおけるステップS212の顔枠と焦点検出領域との対応づけ及びAF動作のサブルーチンについて図16のフローチャートを参照しながら説明する。
まず、ステップS1301では、図15のステップS211で設定した焦点検出領域の中で、(i+2)番目の優先順位の顔の中心座標(Fxi,Fyi)を含んでいる焦点検出領域を、(i+2)番目の優先順位の顔と対応づけてステップS1302へと進む。ステップS1302では、ステップS211で設定した焦点検出領域で焦点検出を行い、ステップS1303へと進む。ステップS1303では主焦点検出領域が合焦であるかどうかを調べ、合焦と判断すればステップS1304へと進み、合焦と判断されなければステップS1306へと進む。ステップS1304では、ステップS1301において顔枠と対応づいた焦点検出領域の中で、主焦点検出領域の焦点検出結果に対して深度内の焦点検出結果である焦点検出領域を合焦枠としてステップS1305へと進む。ステップS1305では、主焦点検出領域の焦点検出結果を合焦位置としてフォーカスレンズを駆動して図15のステップS213へと進む。ここでの合焦位置は、主焦点検出領域とステップS1304での合焦枠の焦点検出結果すべての平均としてもよい。ステップS1306では合焦枠はなしとしてステップS1307へと進む。ステップS1307では、フォーカスレンズを定点へと駆動して図15のステップS213へと進む。ここでの定点は、図15のステップS210で求めた主顔の推定距離としてもよい。
尚、図15のフローチャートにおけるステップS211の焦点検出領域設定のサブルーチンは、図3のフローチャートの動作と同様であるので説明を省略する。
以上説明したように、本実施形態を適用すれば、できるだけ少ない焦点検出領域数で、検出した一つまたは複数の顔に対して効率良く確実に焦点検出領域を設定でき、無駄な演算時間を少なく自動合焦させることが可能となる。
更に、表示された検出顔枠によって画面が煩雑になることなく、合焦しているすべての顔を表示することができ、ユーザにとって、より分かりやすく使い勝手のよい表示方法を提供できる。
[その他の実施形態]
上述した各実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或は装置に提供してもよい。そして、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれている。
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。
本発明の実施形態に係るデジタルカメラ100の構成を示す機能ブロック図である。 第1の実施形態に係るAF処理の流れを示すフローチャートである。 図2のステップS205における焦点検出領域設定処理の詳細を示すフローチャートである。 図3のステップS302における処理の詳細を示すフローチャートである。 図3のステップS303における処理の詳細を示すフローチャートである。 画像データのサイズと、主焦点検出領域の位置及びサイズとを示す図である。 ステップS304における焦点検出領域の設定の一例を示す図である。 主焦点検出領域の右端から右方向へ主焦点検出領域と同じ大きさの焦点検出領域を配置する様子を示す図である。 主焦点検出領域の左端から左方向へ主焦点検出領域と同じ大きさの焦点検出領域を配置する様子を示す図である。 水平方向の焦点検出領域がWHmaxを超えないように調整されて配置された様子を示す図である。 主焦点検出領域の下端から下方向へ主焦点検出領域と同じ大きさの焦点検出領域を配置する様子を示す図である。 主焦点検出領域の上端から上方向へ主焦点検出領域と同じ大きさの焦点検出領域を配置する様子を示す図である。 図3に示す処理により設定された焦点検出領域の例を示す図である。 図3に示す処理により設定された焦点検出領域の例を示す図である。 第2の実施形態に係るAF処理の流れを示すフローチャートである。 図15における顔枠と焦点検出領域との対応づけ及びAF動作のサブルーチンのフローチャート図である。 従来の多点焦点検出方式における焦点検出領域の一例を示す図である。 従来の多点焦点検出方式における焦点検出領域の一例を示す図である。
符号の説明
100 デジタルカメラ
101 撮影レンズ
102 絞り及びシャッター
103 AE(自動露出)制御部
104 フォーカスレンズ
105 AF(オートフォーカス)制御部
106 ストロボ
107 EF処理部
108 撮像素子
109 A/D変換部
110 画像処理部
111 WB(ホワイトバランス)処理部
112 フォーマット変換部
113 内蔵メモリ
114 画像記録部
115 システム制御部
116 画像表示用メモリ
117 表示部
118 操作部
119 撮影モードスイッチ
120 メインスイッチ
121 SW1
122 SW2
123 顔検出モジュール

Claims (8)

  1. 撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、
    前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段と、
    前記顔検出手段で検出された顔の顔情報を基に、主被写体の顔を選択する選択手段と、
    前記選択手段により選択された主被写体の顔とは異なる前記顔検出手段で検出された顔の顔情報に基づいて、前記主被写体の顔とは異なる顔に対して焦点検出できるように主被写体の顔の位置と当該主被写体の顔を基準とした複数の位置に焦点検出領域を設定する設定手段とを備えたことを特徴とする光学装置。
  2. 前記選択手段により選択された主被写体の顔とは異なる顔の顔情報とは、前記主被写体の顔とは異なる顔の大きさ、撮像領域の中心から前記主被写体の顔とは異なる顔への距離、前記主被写体の顔から前記主被写体の顔とは異なる顔への撮像領域での距離のいずれかを含むことを特徴とする請求項1に記載の光学装置。
  3. 前記設定手段は、前記選択手段により選択された主被写体の顔とは異なる顔が複数の場合には前記焦点検出領域を敷き詰めて配置し、単数の場合には間隔を空けて配置することを特徴とする請求項1又は請求項2に記載の光学装置。
  4. 前記設定手段により設定された焦点検出領域における前記画像データを基に前記撮像光学系の焦点状態を検出する焦点検出手段と、
    前記設定手段により設定された焦点検出領域を表示部に表示するよう制御する第1の表示制御手段と、
    前記焦点検出手段により検出された焦点状態より合焦であると判別される焦点検出領域を前記表示部に表示するよう制御する第2の表示制御手段とを更に備えたことを特徴とする請求項1乃至請求項3のいずれか1項に記載の光学装置。
  5. 撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、
    前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段と、
    前記顔検出手段により検出された顔の顔情報に対応する顔枠を表示手段に表示するよう制御する第1の表示制御手段と、
    前記顔検出手段で検出された顔の顔情報を基に焦点検出領域を設定し、前記撮像光学系の焦点状態を検出する焦点検出手段と、
    前記焦点検出手段の検出結果に応じて合焦と判断される領域を前記表示手段に表示する第2の表示制御手段とを備え、
    前記第1の表示制御手段により表示される顔枠の最大数よりも前記第2の表示制御手段により表示される領域の最大数の方が多いことを特徴とする光学装置。
  6. 請求項1乃至請求項5のいずれか1項に記載の光学装置と前記撮像光学系を備えたことを特徴とする撮像装置。
  7. 撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段とを備えた光学装置の制御方法であって、
    前記顔検出手段で検出された顔の顔情報を基に、主被写体の顔を選択する選択工程と、前記選択工程により選択された主被写体の顔とは異なる前記顔検出手段で検出された顔の顔情報に基づいて、前記主被写体の顔とは異なる顔に対して焦点検出できるように主被写体の顔の位置と当該顔を基準とした複数の位置に焦点検出領域を設定する設定工程とを備えたことを特徴とする制御方法。
  8. 撮像光学系を透過した被写体からの入射光を電気信号に変換して画像データを得る撮像手段と、前記撮像手段で得られた画像データを基に被写体の顔を検出する顔検出手段とを備えた光学装置の制御方法であって、
    前記顔検出手段により検出された顔の顔情報に対応する顔枠を表示手段に表示するよう制御する第1の表示制御工程と、前記顔検出手段で検出された顔の顔情報を基に焦点検出領域を設定し、前記撮像光学系の焦点状態を検出する焦点検出工程と、前記焦点検出工程の検出結果に応じて合焦と判断される領域を前記表示手段に表示する第2の表示制御工程とを備え、
    前記第1の表示制御工程により表示される顔枠の最大数よりも前記第2の表示制御工程により表示される領域の最大数の方が多いことを特徴とする制御方法。
JP2006239482A 2006-09-04 2006-09-04 光学装置、撮像装置、光学装置の制御方法 Withdrawn JP2008064797A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006239482A JP2008064797A (ja) 2006-09-04 2006-09-04 光学装置、撮像装置、光学装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006239482A JP2008064797A (ja) 2006-09-04 2006-09-04 光学装置、撮像装置、光学装置の制御方法

Publications (1)

Publication Number Publication Date
JP2008064797A true JP2008064797A (ja) 2008-03-21

Family

ID=39287603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006239482A Withdrawn JP2008064797A (ja) 2006-09-04 2006-09-04 光学装置、撮像装置、光学装置の制御方法

Country Status (1)

Country Link
JP (1) JP2008064797A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041365A (ja) * 2008-08-05 2010-02-18 Nikon Corp 撮像装置
JP2012058464A (ja) * 2010-09-08 2012-03-22 Pentax Ricoh Imaging Co Ltd 撮像システムおよび画素信号読出し方法
CN103402051A (zh) * 2009-02-17 2013-11-20 佳能株式会社 焦点调节设备和焦点调节方法
JP2016142924A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US9544494B2 (en) 2014-02-05 2017-01-10 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JP2020536457A (ja) * 2017-10-31 2020-12-10 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010041365A (ja) * 2008-08-05 2010-02-18 Nikon Corp 撮像装置
CN103402051A (zh) * 2009-02-17 2013-11-20 佳能株式会社 焦点调节设备和焦点调节方法
JP2012058464A (ja) * 2010-09-08 2012-03-22 Pentax Ricoh Imaging Co Ltd 撮像システムおよび画素信号読出し方法
US9025032B2 (en) 2010-09-08 2015-05-05 Pentax Ricoh Imaging Company, Ltd. Imaging system and pixel signal readout method
US9544494B2 (en) 2014-02-05 2017-01-10 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JP2016142924A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
JP2020536457A (ja) * 2017-10-31 2020-12-10 オッポ広東移動通信有限公司Guangdong Oppo Mobile Telecommunications Corp., Ltd. 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体
JP7027537B2 (ja) 2017-10-31 2022-03-01 オッポ広東移動通信有限公司 画像処理方法および装置、電子機器、ならびにコンピュータ可読記憶媒体

Similar Documents

Publication Publication Date Title
JP5004726B2 (ja) 撮像装置、レンズユニットおよび制御方法
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
US8558935B2 (en) Scene information displaying method and apparatus and digital photographing apparatus using the scene information displaying method and apparatus
JP2008197286A (ja) 自動合焦装置とその制御方法並びに撮像装置
JP2010010729A (ja) 撮像装置及びプログラム
KR20110054311A (ko) 영상 처리 방법 및 장치
JP2010028353A (ja) 撮像装置、撮像方法、プログラム及び記録媒体
US8400532B2 (en) Digital image capturing device providing photographing composition and method thereof
KR20100138141A (ko) 구도 가이드 방법 및 장치, 및 디지털 촬영 장치
KR20100027700A (ko) 촬영 방법 및 장치
JP2008176152A (ja) 撮像装置
JP2008064797A (ja) 光学装置、撮像装置、光学装置の制御方法
JP6253007B2 (ja) 表示装置
JP7154758B2 (ja) 画像処理装置及びその制御方法
JP6512961B2 (ja) 撮像制御装置およびその制御方法、プログラム、並びに記憶媒体
JP2009288945A (ja) 画像表示装置及び画像表示方法
JP2017040726A (ja) 撮像装置及びその制御方法
JP2009271557A (ja) 自動合焦装置とその制御方法並びに撮像装置
JP2009244431A (ja) 撮像装置
JP2017143354A (ja) 画像処理装置及び画像処理方法
JP2008054031A (ja) デジタルカメラ及び表示制御方法
JP2023033355A (ja) 画像処理装置およびその制御方法
JP6768449B2 (ja) 撮像制御装置、撮像装置の制御方法及びプログラム
JP5067884B2 (ja) 撮像装置、その制御方法及びプログラム
KR20130024021A (ko) 디지털 촬영 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091110