JP6204660B2 - 撮像装置及びその制御方法 - Google Patents

撮像装置及びその制御方法 Download PDF

Info

Publication number
JP6204660B2
JP6204660B2 JP2012280063A JP2012280063A JP6204660B2 JP 6204660 B2 JP6204660 B2 JP 6204660B2 JP 2012280063 A JP2012280063 A JP 2012280063A JP 2012280063 A JP2012280063 A JP 2012280063A JP 6204660 B2 JP6204660 B2 JP 6204660B2
Authority
JP
Japan
Prior art keywords
area
subject
focus
distance measurement
peak position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012280063A
Other languages
English (en)
Other versions
JP2014123070A5 (ja
JP2014123070A (ja
Inventor
玄志郎 芝上
玄志郎 芝上
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to JP2012280063A priority Critical patent/JP6204660B2/ja
Publication of JP2014123070A publication Critical patent/JP2014123070A/ja
Publication of JP2014123070A5 publication Critical patent/JP2014123070A5/ja
Application granted granted Critical
Publication of JP6204660B2 publication Critical patent/JP6204660B2/ja
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • H04N5/23212Focusing based on image signals provided by the electronic image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/235Circuitry or methods for compensating for variation in the brightness of the object, e.g. based on electric image signals provided by an electronic image sensor
    • H04N5/2356Bracketing, i.e. taking a series of images with varying exposure conditions

Description

本発明は、撮像装置及びその制御方法に関し、更に詳しくは、複数の焦点状態で撮影を行う撮像装置及びその制御方法に関する。

従来、撮像範囲内の部分領域毎に算出された距離に基づいて、画像処理を行う技術がある(例えば、特許文献1参照)。また、それぞれの部分領域毎の距離に基づいて、異なる被写体に順次ピントが合うようにフォーカスレンズ位置を移動させて撮影を行うフォーカスブラケット技術がある(例えば、特許文献2参照)。

特開2006−311505号公報 特開2010−286752号公報

しかしながら、特許文献2に記載されているように部分領域の距離に基づいてフォーカスブラケット撮影を行う場合、次のような問題があった。即ち、各部分領域が複数の測距領域を含む場合に、どの測距領域の測距結果(合焦位置)を用いてピントを合わせるのが適切であるかを選択するのが困難であった。

本発明は上記問題点を鑑みてなされたものであり、複数の被写体にそれぞれピントを合わせながら順次撮影する場合に、各被写体の適切な合焦位置を取得できるようにすることを目的とする。

上記目的を達成するために、本発明の撮像装置は、予め設定された複数の測距領域それぞれについて、合焦させるためにフォーカスレンズを駆動すべき位置を示す合焦位置を求める焦点検出手段と、撮影した画像に対して被写体エリアを設定する設定手段と、前記設定手段により設定された各被写体エリアについて、該被写体エリアに対応する測距領域、当該測距領域の合焦位置の差が所定の距離範囲収まるように分類し、該分類された測距領域のグループのうち、最も多く測距領域を含むグループの合焦位置を、代表となる代表合焦位置として取得する取得手段と、前記設定手段により設定された各被写体エリアの前記代表合焦位置に前記フォーカスレンズを駆動して撮影を行うように制御する制御手段とを有する。

本発明によれば、複数の被写体にそれぞれピントを合わせながら順次撮影する場合に、各被写体の適切な合焦位置を取得することができる。

本発明の実施形態における撮像装置の構成を示すブロック図。 実施形態における撮像時のメインルーチンを示すフローチャート。 実施形態におけるピークポジション取得判断処理のフローチャート。 実施形態における合わせ込みスキャン処理のフローチャート。 実施形態におけるピークポジション情報合成処理のフローチャート。 実施形態における各被写体エリアの代表ピークポジション設定処理のフローチャート。 実施形態における測距領域を説明するための図。 実施形態におけるピークポジションの取得結果及び合成結果の一例を示す図。 実施形態におけるピークポジションを選択するエリアを決定する方法を示す図。 実施形態における被写体エリアに対応した測距領域を示す図。 実施形態における背景抜けを説明するための図。

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。

(撮像装置のブロック図)
図1は本発明の実施形態における撮像装置である電子カメラの構成を示すブロック図である。図1において、ズーム機構を含む撮影レンズ101及び光量を制御する絞り・シャッタ102を介して入射した被写体からの反射光は、フォーカスレンズ104により撮像素子107上に結像される。撮像素子107は結像された光を受光して電気信号に変換し、A/D変換部108に出力する。A/D変換部108は撮像素子107から出力された電気信号からの出力ノイズを除去するCDS回路や、A/D変換前に行う非線形増幅回路、A/D変換を行うA/D変換回路を含み、デジタル信号に変換した画像信号を画像処理部109に出力する。

画像処理部109において、A/D変換部108から出力された画像信号にガンマ変換等の所定の画像処理が施され、フォーマット変換部110において、記録や表示に適したフォーマットに変換されて、内蔵メモリ111に記憶される。内蔵メモリ111は、例えばランダムアクセスメモリなどの高速なメモリであり、以下「DRAM」と記す。DRAM111は一時的な画像記憶手段としての高速バッファとして、あるいは画像の圧縮伸張における作業用メモリとして使用される。画像記録部112はメモリカードなどの記録媒体とそのインターフェースからなり、DRAM111を介して画像等が記録される。画像表示部115は、画像表示の他、操作補助のための表示やカメラ状態の表示、撮影時には撮影画面と測距領域の表示を行い、画像表示用メモリ114(以下「VRAM」と記す。)を介して表示が行われる。

操作部116はカメラを外部から操作するためのもので、例えば次のようなスイッチ等が含まれる。即ち、撮像装置の撮影機能や画像再生時の設定などの各種設定を行うメニュースイッチ、撮影レンズ101のズーム動作を指示するズームレバー、撮影モードと再生モードの動作モード切換えスイッチなどである。撮影モードスイッチ117は、マクロモード、遠景モード、スポーツモードなどの撮影モードを選択するためのもので、本実施形態では、ユーザーが選択した撮影モードに応じてAFスキャン範囲やAF動作などが変更される。カメラは、更に、システムに電源を投入するためのメインスイッチ118、AFやAE等の撮影準備動作を行うためのスイッチ119(以下「SW1」と記す。)、SW1の操作後、撮影を行うための撮影スイッチ120(以下「SW2」と記す。)を有する。

また、システム制御部113は撮影シーケンスなどシステム全体を制御する。また、システム制御部113は画像処理部109により処理された画像データから、被写体を検出する処理も行う(被写体検出手段)。AE処理部103は、画像処理部109から出力された画像処理済みの画像信号に対して測光処理を行い、露出制御のためのAE評価を求め、シャッタ速度、絞り、感度を制御することにより露出を制御する。なお、撮像素子107が電子シャッタ機能を有する場合には、撮像素子107のリセット及び読み出しタイミングも制御する。AF処理部106は、画像のコントラストからAF評価値を算出し、算出したAF評価値に基づいて合焦位置を求め(焦点検出)、モータ105を駆動することでフォーカスレンズ104を駆動する。AF評価値が高いほどコントラストが強く、合焦状態に近いことを示し、AF評価値が低いほどコントラストが弱く、合焦状態から遠いことを示す。

角速度センサ部121は手ぶれやパンなどによるカメラの動きを検知し、動体検出部122は撮像した映像出力信号より動体を検出する。

(撮像装置の動作)
次に、上記構成を有する撮像装置の実施形態における動作について、図2のフローチャートに沿って説明する。図2は、撮像時のメインルーチンを示すフローチャートである。まず、S201にて、SW1(119)が押されたかどうかの判定を行う。SW1(119)が押されていないと判定された場合はS201に戻り、SW1(119)の判定を繰り返す。

SW1(119)が押されたと判定された場合は、S202に進んで、測距領域毎にピークポジションを取得するかどうかの判断を行う。なお、ピークポジションとは、AF評価値が極大となるフォーカスレンズ位置、即ち、各測距領域のピントが合うフォーカスレンズ位置(各測距領域の合焦位置)のことを指す。

(測距領域毎のピークポジション取得判定)
ここでS202で行われる測距領域毎のピークポジション取得判断処理について、図3を用いて説明する。測距領域毎にピークポジションを取得する為には、画面内の全ての被写体の距離情報を取得する為に、フォーカスレンズ104を無限遠から至近までの全域で駆動する(スキャンする)場合があり、長く時間がかかることがある。そのため、測距領域毎にピークポジションを取得する為のスキャンを行うのに適した条件かどうかの判定を行うことで、不要なスキャンを避けるようにする。

まずS301にて、検出されている被写体が、複数配置した測距領域よりも外側にあるかどうかの判定を行う。本実施形態では、例えば、図7(a)に示すような画像701に対して、図7(b)で示すように9行7列に測距領域を配置する。なお、この9行7列に配置された測距領域をまとめて測距エリア801と呼ぶ。

検出された被写体が測距エリア801の外側にある場合はその被写体までの距離を測距することができないので、測距領域毎のピークポジションを取得する必要がない。そのため、被写体が測距エリア801の外であると判定された場合は(S301でYES)、S306にて測距領域毎のピークポジションを取得しないと判定し、処理を完了する。

検出された被写体が測距エリア801内にあると判定された場合は(S301でNO)、S302にて検出された被写体が動いているかどうかの判定を行う。被写体が動いている場合は(S302でYES)正しく測距を行うことができず、測距領域毎のピークポジションを取得することができないため、S306にて測距領域毎のピークポジションを取得しないと判定し、処理を完了する。

被写体が動いていないと判定された場合は(S302でNO)、S303にて撮影シーンが低照度かどうかの判定を行う。撮影シーンが低照度になると輝度を適正に保つ為にゲインをかける必要があるが、ゲインが所定以上かかると正しく測距を行うことができないため、測距領域毎のピークポジションを取得することができない。そのため、撮影シーンが低照度であると判定された場合は(S303でYES)、S306にて測距領域毎のピークポジションを取得しないと判定し、処理を完了する。

撮影シーンが低照度でないと判定された場合は(S303でNO)、S304にて撮影シーンが点光源かの判定を行う。点光源とは、光源が小さく点となってるようなシーンで、そのようなシーンでは正しく測距を行うことができず、測距領域毎のピークポジションを取得することができない。そのため、撮影シーンが点光源であると判定された場合は(S304でYES)、S306にて測距領域毎のピークポジションを取得しないと判定し、処理を完了する。

撮影シーンが点光源でないと判定された場合は(S304でNO)、S305において測距領域毎のピークポジションを取得すると判定し、処理を完了する。

上述したS202の処理の結果、S203において測距領域毎のピークポジションを取得しないと判定した場合はS204に進み、フォーカスレンズ104を移動させながら測距領域毎のピークポジションを取得せずにAF評価値を取得するスキャンを行う。ここでは例えば、画面の中央付近の領域や、画面全体など、予め決められた領域から得られる画像信号等に基づいてAF評価値を取得する。そして、取得したAF評価値に基づいてS205にて合焦位置へ移動する。なお、合焦位置とは、画像全体においてピントを合わせるべきであると判断したピークポジションのことであり、例えば、AF評価値に基づいて求められたピークポジションの中の、最至近のピークポジションとする。

次に、S206にてSW2(120)が押されたかどうかの判定を行う。SW2(120)が押されていないと判定された場合はS206に戻ってSW2(120)の判定を繰り返す。SW2(120)が押されたと判定されると、S207で撮影を行う。ここで、例えば、露出条件や色効果フィルタ等を変更して連続して画像を撮影するブラケット撮影を行っても良い。

一方、S203にて測距領域毎のピークポジションを取得すると判定した場合は、S208に進む。S208では、測距領域毎のピークポジションを取得する為に、画面内に複数の測距領域を配置し、測距領域毎のピークポジション取得スキャン(以下、単に「ピークポジション取得スキャン」と記す。)を行って、各領域毎にAF評価値を取得する。なお、測距領域は上述したように、例えば、図7(b)のように9行7列に配置されているものとするが、本発明はこれに限られるものではなく、画面内の距離が分かるのであれば、他の配置であっても構わない。

次に、S209にて、S208で得られたAF評価値に基づいて、測距領域毎のピークポジション(各測距領域の合焦位置)を取得する。以下、ここで得られた測距領域毎のピークポジションを「第1のピークポジション情報」と呼び、その一例を図8(a)に示す。なお、図8(a)の「×」は、被写体のコントラストが低い、または被写体がスキャン中に測距領域から移動した等の理由により、正しく測距できなかった場合の、使用不可能な測距結果を表している。

次にS210にて、第1のピークポジション情報のうち、合焦させるべきピークポジション、即ち、合焦位置を選択する。ここで、合焦位置の決定方法について説明する。

被写体が検出されている場合は、図9(a)に示すように被写体枠1201が画面に表示される。この被写体枠1201は被写体と判定されている領域を示す。この被写体領域にかかる測距領域1202で示す領域を、ピークポジションを選択するエリアとする。一方、被写体が検出されていない場合は、図9(b)に示すように画面中央の所定領域1301をピークポジションを選択するエリアとする。

そして、選択されたエリア内において、所定深度内のピークポジションを持ち、かつ、隣接する測距領域が存在するかどうかを判定する。この条件にあてはまる測距領域を隣接測距領域とする。隣接測距領域が存在する場合は、各隣接測距領域の中で最至近のピークポジションを持つ隣接測距領域を選択し、そのピークポジションを合焦位置として選択する。隣接する測距領域が存在しない場合は、選択されたエリアの中での最至近のピークポジションを合焦位置とする。

次に、S211にて、第1のピークポジション情報を用いて、撮像しているシーンに距離差が無いか、つまり所定距離範囲内に被写体が分布しているかどうかの判定を行う。本実施形態での距離分布判定では、第1のピークポジション情報を比較し、差が少なければ所定距離範囲内に被写体が分布していると判定する。なお、この距離分布判定は、被写体が所定距離範囲内にあるかどうかを判定することができるならば、他の方法を用いても良い。

所定距離範囲内に被写体が分布していると判定された場合は、S205に進んで、上述した処理を行う。なお、S205では、S210で求めた合焦位置へフォーカスレンズ104を移動する。S211において被写体が所定距離範囲内に無いと判定された場合は、次にS212にて合わせ込みスキャン処理を行う。

(合わせ込みスキャン)
ここでS212で行われる合わせ込みスキャン処理について、図4のフローチャートを参照して説明する。まず、S401にて、被写体が検出されていて、かつ、その検出されている被写体が顔かどうかの判定を行う。顔だと判定された場合は、被写体のサイズが検出可能であるので、次にS402にて、背景抜けを抑える為に、その被写体のサイズに合わせて測距エリアの再設定を行う。なお、本実施形態では、被写体が顔の場合に再設定を行うとしているが、被写体のサイズが検出できるならば、どのような被写体でも測距エリアの再設定をしても構わない。

ここで、背景抜けについて図11を用いて説明する。図11(a)において、1501は無限遠側にある被写体のAF評価値、1502はその被写体より至近側にある別の被写体のAF評価値、1503はピークポジション取得スキャンにおいてAF評価値を取得した位置である。

上述したピークポジション取得スキャンでは無限遠側から至近側までの広い範囲をスキャンするので、フォーカスレンズ104を速い速度で動かしている。その為、AF評価値を取得するポイント間隔は広くなり、無限遠側と至近側の両方のAF評価値からピークポジションが求められるので、至近側に被写体が有っても無限遠側の被写体の影響を受ける。この現象を背景抜けという。

次に、S403にて、スキャン時にフォーカスレンズ104を移動させる速度、及び、AF評価値を取得するポイント数からなるスキャンパラメータの設定を行う。合わせ込みスキャンにおいてフォーカスレンズ104を移動させる速度は、ピークポジション取得スキャン時の速度より遅い速度に設定する。

なお、被写体のサイズが分かっており、背景抜けが発生しないように測距領域を設定している場合は、背景抜けが発生しないので、スキャンパラメータを、被写体のサイズが分からない場合と異らせてもよい。

次に、S404にてフォーカスレンズ104のスキャン範囲を設定する。スキャン範囲は、図2のS210にて決定された合焦位置を中心として設定する。合焦位置として、被写体にピントの合う位置が選択されているので、この位置を中心にしてスキャンを行えば、対象となる被写体のピークポジションを正しく捉えることができる。これにより、図11(b)の1504で示すように狭い範囲にてAF評価値を取得することができ、無限遠側の被写体の影響を受けずに、至近側の被写体のピークポジションを計算すことが可能である。

次に、S405にて、設定したスキャンパラメータ及びスキャン範囲にて、合わせ込みスキャンを行い、得られたAF評価値に基づいて測距エリアの測距領域毎のピークポジションを取得する。ここで求められた測距エリアの測距領域毎のピークポジションを、以下、「第2のピークポジション情報」と呼び、その一例を図8(b)に示す。図8(b)において、測距エリア外の領域、被写体のコントラストが低い、被写体がスキャン中に測距領域から移動した、スキャン範囲に被写体が存在しない等の理由により、正しく測距できなかった測距領域には「×」が記されている。なお、スキャン範囲に被写体が存在しないとは、スキャン範囲の至近側端よりも更に側、もしくは無限遠側端よりも更に無限遠側に被写体がある場合である。

この合わせ込みスキャンを行うことで、顔のように被写体領域が分かる被写体の場合は、被写体に適したピントの位置を取得することができ、被写体のサイズが分からない場合でも遠近競合の影響を少なくしたピントの位置を取得することができる。

図4に示す合わせ込みスキャンが終了すると図2のS213に進み、S212における合わせ込みスキャンの処理結果(第2のピークポジション情報)と、S209で得られた第1のピークポジション情報とを合成する。

(ピークポジション情報の合成)
ここでS213で行われるピークポジション情報合成処理について、図5のフローチャートを参照して説明する。まず、S501にて、図7(b)に示すように配置された測距領域の1つについて、図8(a)に示すように第1のピークポジション情報が得られている場合に、第1のピークポジション情報が使用可能かの判定を行う。例えば、図8(a)において、「×」が記されている測距領域は、第1のピークポジション情報が使用不可能な測距領域である。

なお、被写体がスキャン中に測距領域から移動したかの判定には、AF評価値を使用しても良い。また、被写体がスキャン中に測距領域から移動しない場合、AF評価値はフォーカスレンズ104の位置と被写体までの距離に応じて山の形状になるが、被写体が移動した場合は、山の形状にならない。このことを利用して移動したかどうかの判定を行ってもよい。

S501にて、第1のピークポジション情報が使用可能ではないと判定された場合は、次にS503にて第2のピークポジション情報が使用可能かの判定を行う。例えば、図8(b)に示すように、同じ測距領域が「×」であれば、第2のピークポジション情報は使用不可能である。第2のピークポジション情報が使用可能であれば、S504にて第2のピークポジション情報を採用し、S510に進む。

S503で第2のピークポジション情報も使用可能でなければ、第1、第2のピークポジション情報のどちらも使用可能ではないので、S505にてその測距領域のデータは不正なデータとし、S510に進む。

一方、S501において第1のピークポジション情報が使用可能であると判定された場合は、次にS502において第2のピークポジション情報が使用可能であるかどうかを判定する。第2のピークポジション情報が使用可能ではないと判定された場合は、S506にて第1のピークポジション情報を採用し、S510に進む。

S502において第2のピークポジション情報が使用可能であると判定された場合は、S507にて第2のピークポジション情報が、第1のピークポジション情報と比較して至近側にピントが合うピークポジション情報であるかの判定を行う。背景抜けにて背景の被写体のAF評価値の影響を受けている場合は、至近側の被写体のピークポジションは無限遠側の被写体のピークポジションの影響を受け、無限遠側のピークポジションに近い数値となる。その数値よりも至近側であれば、正しく被写体のAF評価値にて測距できていると判断できる。第2のピークポジション情報が第1のピークポジション情報より至近側にピントが合うピークポジション情報であると判定された場合は、S508にて第2のピークポジション情報を採用し、S510に進む。また、第2のピークポジション情報が第1のピークポジション情報より無限遠側にピントが合うピークポジション情報であると判定された場合は、S509にて第1のピークポジション情報を採用し、S510に進む。

S510では測距エリア801の全ての測距領域における情報をチェックしたかの判定を行い、全測距領域のチェックを完了していれば、処理を完了する。全測距領域のチェックを完了していなければS501に戻り、別の測距領域について上記処理を繰り返す。

第1のピークポジション情報が図8(a)に示すものであり、第2のピークポジション情報が図8(b)に示すものである場合、上述した図5に示す合成処理により、図8(c)に示すように合成されたピークポジション情報が得られる。即ち、各測距領域において、第1のピークポジション情報と第2のピークポジション情報とを比較し、×ではない方を用いる。また、ピークポジション情報が異なる場合には、至近側を示すピークポジション情報を用いることにより(902、1002、1102、1103)、合成ピークポジション情報を得る。

次にS214にて、合成ピークポジション情報を用いて、合焦させるべきピークポジションを選択する。なお、合焦させるべきピークポジションの選択方法は、S210における処理と同様である。そして、補正したピークポジション情報を用いて、S211で説明した処理と同様にして、所定距離範囲内に被写体が分布しているかどうかを判定する。被写体が所定距離範囲内に分布していると判定された場合は、S205に進んで上述した処理を行う。なお、この場合S205では、S214にて決定した合焦位置へフォーカスレンズ104を移動する。

一方、被写体が所定距離範囲内に無いと判定された場合は、次にS216にて、被写体エリアを生成する。本実施形態では、画面内の色情報や輝度情報から画像の領域分割を行い、被写体らしい領域を決め、その被写体らしい領域に対応する測距領域の合成ピークポジション情報の差分が所定範囲内であれば、その領域を被写体エリアとして設定する。また、被写体らしい領域が複数あり、それらの領域に対応する測距領域の合成ピークポジション情報の差分が所定範囲内であれば、それらの測距領域を1つの被写体エリアとして設定する。なお、その他の方法でも、画像の情報、被写体の距離情報などから、領域分割を行い被写体エリアを設定することが可能であれば、どのような方法でも構わない。被写体を検出するための領域分割は任意の分割方法で分割したものであって構わないが、測距領域と一致するように分割すれば、領域の色情報や輝度情報と被写体の距離情報を容易に一致させることが可能となる。図10は、測距領域と一致するように分割した場合の一例として、被写体エリア1401〜1405を示している。

次に、S217にて、生成された各被写体エリアの代表ピークポジション(代表合焦位置)を設定する。なお、代表ピークポジションの設定方法については、図6を用いて後述する。

次に、S218にて、被写体エリアの優先順位を設定する。ここで、被写体エリアの優先順位とは、フォーカスブラケット撮影時にピントを合わせる被写体エリアの順番のことであり、優先順位が高い被写体エリアから先にピントを合わせて撮影する。この優先順位は、S214で決められた、合焦位置となる代表ピークポジションを持つ測距領域に対応する被写体エリアを第1優先とし、被写体エリアのサイズが大きい、被写体エリアの位置が画像の中心に近い、等の状態から第2以降の優先順位を決定する。

次に、S219にて、SW2(120)が押されたかどうかの判定を行う。SW2(120)が押されていないと判定された場合は、S219に戻ってSW2(120)の判定を繰り返す。SW2(120)が押されたと判定された場合は、次にS220にて、S218にて決定した優先順位に基づいて、各被写体エリアにピントの合うフォーカスレンズ104の位置へ順に移動させながら、フォーカスブラケット撮影処理を行う。

次に、S221にて各被写体エリアのピークポジション情報に基づき、画像処理によるボカシ処理を付与し、処理を完了する。画像処理によるボカシ処理は、各被写体エリアのピークポジションの差分により、ボカシ量が異なる。例えば、各被写体エリアのピークポジション差分が所定以上大きい場合は、光学的なボケが大きいのでそれ以上のボカシ処理は付与しないが、差分が少ない場合は、画像処理によるボカシ量を多くする。

(各被写体エリアの代表ピークポジション設定)
S217で行われる、各被写体エリアの代表ピークポジション設定処理について、図6を参照して説明する。なお、この図6に示す処理は、S216で生成された全ての被写体エリアに対する処理が終了するまで、繰り返し行われる。まず、S601にて、撮影しているシーンにおける被写体が顔であるかどうかを判定する。被写体が顔であると判定された場合は、S602にて、検出されている顔に対応する被写体エリアを決定する。なお、顔に対応する被写体エリアは、S216で生成された被写体エリアの内、検出されている顔の位置に対応する位置にある被写体エリアを選択することで決定することができる。

次に、S603にて、合わせ込みスキャン時に顔領域に再設定した測距エリアのピークポジションを、対応する被写体エリアの代表ピークポジションとして設定する。これにより、顔に対応する被写体エリアに適したピークポジションを対応付けることができる。

一方、S601にて顔ではないと判定された場合は、次にS604にて被写体エリアに対応する測距領域を選択する。被写体エリアに対応する測距領域とは、図10の1401〜1405のように、点線や実線で囲われている領域のことである。領域1403、1404、1405は、合成ピークポジション情報が所定範囲内にあるので、一つの測距エリアにまとめられる。つまり、被写体エリアに対応する測距領域としては、1401に示す測距エリア1、1402に示す測距エリア2、1403、1404、1405が統合された背景エリアとしての測距エリア3となる。

次に、S605にて、S604で選択した測距領域の中で正しく測距できている測距領域を選択エリアとして選択する。図10に示す例では、被写体エリアとして選択された測距領域内は全て合ピークポジション情報が設定されているが、適切な情報が得られなかった(「×」で示す)場合もあるので、ここでそのような測距領域を除去した測距領域を選択エリアとして設定する。

次に選択エリアに含まれる測距領域、即ち、合成ピークポジション情報を有する有効な測距領域の数を判定する。まずS606にて選択エリアに有効な測距領域が3つ以上含まれているかどうかの判定を行う。3つよりも少ないと判定された場合は、次にS607にて、選択エリアに含まれる有効な測距領域が0かを判定する。

有効な測距領域が0と判定された場合は、次に、S608にて、その被写体エリアの代表ピークポジションを予め決めておいた定点(例えば、無限にピントの合うフォーカスレンズ位置)に設定し、処理を完了する。なお、代表ピークポジションとは、その被写体エリアに対応するピークポジションのことであり、被写体エリアの広い範囲にピントを合わせることができるフォーカスレンズ位置のことを指す。

有効な測距領域が0ではないと判定された場合は、次にS609にて有効な測距領域が1つかの判定を行う。選択エリア内の有効な測距領域が1つであると判定された場合は、S610にて、その測距領域の合成ピークポジション情報を被写体エリアの代表ピークポジションとする。有効な測距領域が1つではないと判定された場合は、選択エリアに含まれる有効な測距領域は2つとなるので、S611にて、2つのうち、至近側にピントの合う合成ピークポジション情報を代表ピークポジションとする。

S606にて、有効な測距領域が3つ以上であると判定された場合は、次にS612にて、選択エリア内の測距領域の合成ピークポジション情報を至近側からピントの合う順に並び替える。次に、S613にて最至近にピントの合う合成ピークポジション情報を最初の比較基データとして設定する。

次にS614にて、選択エリア内の測距領域における合成ピークポジション情報全てに対して比較が行われたかどうかの判定を行う。全てに対しての比較が行われていない場合は、次にS615にて1つ無限遠側の合成ピークポジションを比較基データとの比較対象として設定する。1度目の比較では比較基データが示す合成ピークポジション情報に対して1つ無限遠側、2度目以降の比較では、その前に比較対象となった合成ピークポジション情報の1つ無限遠側が、比較対象の合成ピークポジション情報となる。

次にS616にて、比較基データと、比較対象の合成ピークポジション情報との差分を計算する。その差分が所定焦点深度以内、例えば比較基データと比較対象の合成ピークポジション情報が1深度内であると判定された場合は、次にS618にて、同一深度カウンタを増分する。同一深度カウンタは、比較基データの測距領域に対して付与され、その測距領域と同一深度の測距領域の数がいくつあるかを判定する為に用いられる。

次にS619にて、現在の比較基データの測距領域に付与されている同一深度カウンタが選択エリア内の他の測距領域と比べて最大かの判定を行う。同一深度カウンタが最大であると判定された場合は、比較基データとして設定されている合成ピークポジション情報を代表ピークポジションとして設定する。この処理により、合成ピークポジション情報が最も集中している深度を求めることができる。最大でないと判定された場合は、S614に戻る。

S616にて差分が所定深度外であると判定された場合は、S617にて比較対象の測距領域の合成ピークポジション情報を比較基データとして設定し、S614に戻る。S614にて選択エリア内の有効な測距領域における合成ピークポジション情報全てに対しての比較が行われていると判定された場合は、S621にて、代表ピークポジションが設定されているかの判定を行う。代表ピークポジションが設定されていると判定された場合は、処理を完了する。

代表ピークポジションが設定されていないと判定された場合は、選択エリア内の有効な測距領域間で、同一深度の合成ピークポジション情報が1つも無い、ということになる。この場合、S622にて、有効な測距領域の合成ピークポジション情報のうち、最至近の合成ピークポジション情報を代表ピークポジションに設定し、処理を完了する。

なお、上述した例では、同一深度カウンタが最大となる比較基データを代表ピークポジションとして設定する場合について説明したが、本発明はこれに限るものではない。例えば、同一深度カウンタが最大となる深度内に分布する合成ピークポジション情報の中央値、平均値、極大値等の統計的な値を代表ピークポジションとしてもよい。

以上説明したように、本発明によれば、領域分割された被写体の代表ピークポジションを決めることが可能である。これにより各領域分割された被写体に適したフォーカスレンズ位置での撮影を行うことができる。

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (12)

  1. 予め設定された複数の測距領域それぞれについて、合焦させるためにフォーカスレンズを駆動すべき位置を示す合焦位置を求める焦点検出手段と、
    撮影した画像に対して被写体エリアを設定する設定手段と、
    前記設定手段により設定された各被写体エリアについて、該被写体エリアに対応する測距領域、当該測距領域の合焦位置の差が所定の距離範囲収まるように分類し、該分類された測距領域のグループのうち、最も多く測距領域を含むグループの合焦位置を、代表となる代表合焦位置として取得する取得手段と、
    前記設定手段により設定された各被写体エリアの前記代表合焦位置に前記フォーカスレンズを駆動して撮影を行うように制御する制御手段と
    を有することを特徴とする撮像装置。
  2. 前記設定手段により複数の被写体エリアが設定されている場合に、前記取得した被写体エリアごとの代表合焦位置に基づいて前記被写体エリアの優先順位を決定する決定手段を更に有し、
    前記制御手段は、前記決定手段により決定した優先順位が高い順に、前記被写体エリアの代表合焦位置に前記フォーカスレンズを駆動して撮影を行うように制御することを特徴とする請求項1に記載の撮像装置。
  3. 前記決定手段は、更に、画像における被写体エリアの位置、及び被写体エリアの大きさの少なくともいずれかに基づいて前記優先順位を決定することを特徴とする請求項2に記載の撮像装置。
  4. 前記撮影した画像から、予め決められた被写体を検出する被写体検出手段を更に有し、
    前記焦点検出手段は、前記被写体検出手段により前記予め決められた被写体が検出された場合に、該検出された被写体の領域を測距領域として再設定し、該再設定した測距領域の合焦位置を求めることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  5. 前記取得手段は、前記測距領域を再設定した場合、該再設定した測距領域の合焦位置を、前記検出した被写体に対応する被写体エリアの代表合焦位置とすることを特徴とする請求項4に記載の撮像装置。
  6. 前記取得手段は、前記設定手段により複数の被写体エリアが設定されている場合に、被写体エリアに対応する測距領域の合焦位置が前記所定の距離範囲よりも広い予め決められた距離範囲内にある複数の被写体エリアを統合し、統合した被写体エリアについて前記代表合焦位置を取得することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
  7. 前記設定手段は、前記撮影した画像に対して、色情報及び輝度情報の少なくともいずれか一方を用いて、前記被写体エリアを設定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
  8. 前記取得手段は、前記設定手段により設定された各被写体エリアに対応する測距領域の合焦位置が、前記所定の距離範囲内に分布しているかどうかを判断し、前記所定の距離範囲内に分布していないと判断された場合に、前記グループ分けを行って前記代表合焦位置を取得することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
  9. 前記所定の距離範囲は、フォーカスレンズの1焦点深度であることを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
  10. 焦点検出手段が、予め設定された複数の測距領域それぞれについて、合焦させるためにフォーカスレンズを駆動すべき位置を示す合焦位置を求める焦点検出工程と、
    設定手段が、撮影した画像に対して被写体エリアを設定する設定工程と、
    取得手段が、前記設定工程において設定された各被写体エリアについて、該被写体エリアに対応する測距領域、当該測距領域の合焦位置の差が所定の距離範囲収まるように分類し、該分類された測距領域のグループのうち、最も多く、代表となる代表合焦位置として取得する取得工程と、
    制御手段が、前記設定工程において設定された各被写体エリアの前記代表合焦位置に前記フォーカスレンズを駆動して撮影を行うように制御する制御工程と
    を有することを特徴とする撮像装置の制御方法。
  11. コンピュータに、請求項10に記載の制御方法の各工程を実行させるためのプログラム。
  12. 請求項11に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2012280063A 2012-12-21 2012-12-21 撮像装置及びその制御方法 Active JP6204660B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012280063A JP6204660B2 (ja) 2012-12-21 2012-12-21 撮像装置及びその制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012280063A JP6204660B2 (ja) 2012-12-21 2012-12-21 撮像装置及びその制御方法
US14/103,331 US9451150B2 (en) 2012-12-21 2013-12-11 Image capturing apparatus comprising focus detection, and method for controlling the same
CN201310714066.2A CN103888645B (zh) 2012-12-21 2013-12-20 摄像设备及用于控制摄像设备的方法

Publications (3)

Publication Number Publication Date
JP2014123070A JP2014123070A (ja) 2014-07-03
JP2014123070A5 JP2014123070A5 (ja) 2015-10-01
JP6204660B2 true JP6204660B2 (ja) 2017-09-27

Family

ID=50957357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012280063A Active JP6204660B2 (ja) 2012-12-21 2012-12-21 撮像装置及びその制御方法

Country Status (3)

Country Link
US (1) US9451150B2 (ja)
JP (1) JP6204660B2 (ja)
CN (1) CN103888645B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218049A (ja) * 2012-04-06 2013-10-24 Sony Corp 撮像装置とフォーカス制御方法およびプログラム
JP6212717B2 (ja) * 2014-03-26 2017-10-18 パナソニックIpマネジメント株式会社 撮像装置
US9465444B1 (en) * 2014-06-30 2016-10-11 Amazon Technologies, Inc. Object recognition for gesture tracking
JP6299519B2 (ja) * 2014-08-12 2018-03-28 リコーイメージング株式会社 撮像装置
JP6457776B2 (ja) * 2014-10-14 2019-01-23 オリンパス株式会社 撮像装置および撮像装置の制御方法
JP2016118634A (ja) * 2014-12-19 2016-06-30 オリンパス株式会社 撮影装置及び撮影方法
JP6537288B2 (ja) * 2015-02-05 2019-07-03 オリンパス株式会社 焦点調節装置および焦点調節方法
KR20160100018A (ko) * 2015-02-13 2016-08-23 삼성전자주식회사 전자장치의 초점 검출 장치 및 방법
JP6474693B2 (ja) * 2015-06-19 2019-02-27 オリンパス株式会社 焦点検出装置、焦点検出方法、および記録媒体
CN105657240A (zh) * 2015-06-29 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种拍照方法及装置
WO2017006538A1 (ja) 2015-07-07 2017-01-12 パナソニックIpマネジメント株式会社 撮像装置および静止画像生成方法
CN106060407A (zh) * 2016-07-29 2016-10-26 努比亚技术有限公司 一种对焦方法及终端

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614998B1 (en) * 1999-10-18 2003-09-02 Fuji Photo Film Co., Ltd. Automatic focusing camera and shooting method
JP2001116979A (ja) * 1999-10-18 2001-04-27 Fuji Photo Film Co Ltd 自動焦点カメラ及び撮影方法
JP4364078B2 (ja) 2004-06-30 2009-11-11 イーストマン コダック カンパニー 撮像方法及び撮像装置
JP4193804B2 (ja) * 2005-02-03 2008-12-10 カシオ計算機株式会社 撮像装置、画像記憶装置、撮像方法、記憶方法及びプログラム
JP2006227093A (ja) * 2005-02-15 2006-08-31 Canon Inc 撮像装置、撮像装置における測距点選択方法、及びコンピュータプログラム
JP2006311505A (ja) 2005-03-29 2006-11-09 Fuji Photo Film Co Ltd 画像処理システム、画像処理方法、画像処理プログラム、撮像装置、及び撮像方法
CN101909156B (zh) 2005-11-02 2013-01-16 奥林巴斯株式会社 电子照相机及其图像处理方法
DE102007007832A1 (de) * 2007-02-16 2008-11-20 Kaindl Flooring Gmbh Verkleidungspaneel
JP4906582B2 (ja) * 2007-05-09 2012-03-28 キヤノン株式会社 焦点調節装置及びその制御方法及び撮像装置及びプログラム及び記憶媒体
JP4823964B2 (ja) * 2007-05-10 2011-11-24 富士フイルム株式会社 撮像装置及び撮像方法
JP2007328360A (ja) * 2007-07-27 2007-12-20 Fujifilm Corp 自動焦点カメラ及び撮影方法
JP5043787B2 (ja) 2008-09-16 2012-10-10 キヤノン株式会社 撮影装置及びその制御方法
JP2010097211A (ja) * 2008-09-17 2010-04-30 Ricoh Co Ltd 撮像装置および撮影位置設定方法
EP2166408B1 (en) * 2008-09-17 2014-03-12 Ricoh Company, Ltd. Imaging device and imaging method using the same
JP5195506B2 (ja) * 2009-02-24 2013-05-08 株式会社ニコン 撮像装置および画像合成方法
JP5387949B2 (ja) * 2009-03-03 2014-01-15 株式会社リコー 撮像装置、再生表示装置、撮像記録方法および再生表示方法
JP5400486B2 (ja) 2009-06-15 2014-01-29 オリンパスイメージング株式会社 撮影装置および撮影方法
JP5195663B2 (ja) * 2009-06-19 2013-05-08 カシオ計算機株式会社 撮像装置、合焦方法及びプログラム
JP5477345B2 (ja) * 2011-07-22 2014-04-23 カシオ計算機株式会社 撮像装置、合焦方法及びプログラム

Also Published As

Publication number Publication date
CN103888645A (zh) 2014-06-25
US20140176783A1 (en) 2014-06-26
JP2014123070A (ja) 2014-07-03
CN103888645B (zh) 2017-12-22
US9451150B2 (en) 2016-09-20

Similar Documents

Publication Publication Date Title
JP5086357B2 (ja) 信号センサからの多重ビデオ信号の供給
JP4582423B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2008271240A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
US9076204B2 (en) Image capturing device, image capturing method, program, and integrated circuit
US20070242942A1 (en) Camera
EP2230835A2 (en) Image pickup apparatus and signal processor
US8629915B2 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
JP5394296B2 (ja) 撮像装置及び画像処理方法
JP2005318554A (ja) 撮影装置及びその制御方法及びプログラム及び記憶媒体
US8208034B2 (en) Imaging apparatus
JP2014232181A (ja) 撮像装置およびその制御方法
EP2401860B1 (en) Imaging apparatus, image display apparatus, imaging method, method of displaying image and method of correcting position of focusing-area frame
JP5589527B2 (ja) 撮像装置および追尾被写体検出方法
US20120147150A1 (en) Electronic equipment
US20030169363A1 (en) Image pickup apparatus and method, and image-pickup control computer program
JP5954336B2 (ja) 画像処理装置、画像処理方法、及び記録媒体
JP5898466B2 (ja) 撮像装置、その制御方法、及びプログラム
JP2012002951A (ja) 撮像装置、合焦位置検出方法および合焦位置検出プログラム
US8184192B2 (en) Imaging apparatus that performs an object region detection processing and method for controlling the imaging apparatus
JP2008141666A (ja) 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
US7725019B2 (en) Apparatus and method for deciding in-focus position of imaging lens
JP4460560B2 (ja) 撮像装置及び撮影方法
JP2008109336A (ja) 画像処理装置および撮像装置
US20120044400A1 (en) Image pickup apparatus
JP4562182B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170901

R151 Written notification of patent or utility model registration

Ref document number: 6204660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151