JP6323314B2 - 合焦制御装置及び合焦制御プログラム - Google Patents

合焦制御装置及び合焦制御プログラム Download PDF

Info

Publication number
JP6323314B2
JP6323314B2 JP2014241124A JP2014241124A JP6323314B2 JP 6323314 B2 JP6323314 B2 JP 6323314B2 JP 2014241124 A JP2014241124 A JP 2014241124A JP 2014241124 A JP2014241124 A JP 2014241124A JP 6323314 B2 JP6323314 B2 JP 6323314B2
Authority
JP
Japan
Prior art keywords
image data
focus
area
target area
focusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014241124A
Other languages
English (en)
Other versions
JP2016102900A (ja
Inventor
拓真 辻
拓真 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014241124A priority Critical patent/JP6323314B2/ja
Priority to US14/932,853 priority patent/US9621788B2/en
Priority to EP15193234.0A priority patent/EP3026888B1/en
Publication of JP2016102900A publication Critical patent/JP2016102900A/ja
Application granted granted Critical
Publication of JP6323314B2 publication Critical patent/JP6323314B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/28Circuitry to measure or to take account of the object contrast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Description

開示の技術は、合焦制御装置及び合焦制御プログラムに関する。
画像データを取得し、取得した画像データからコントラスト値を計算することを、レンズ位置を移動させながら繰り返し、コントラスト値がピークとなる位置にレンズを移動させる合焦制御を行う技術が存在する。また、合焦対象領域で高周波成分の不足によりコントラスト値のピークが検出されない場合に、合焦対象領域の面積を拡大する合焦制御を行う技術が存在する。また、第1の領域でコントラスト値のピークが検出されなかった場合、コントラスト値が最大を示す第2の領域でコントラスト値のピークの検出を行う合焦制御を行う技術が存在する。また、多点測距によって主要被写体の位置をラフに検出し、検出した主要被写体の位置を基準に画像解析を行うことにより、フレームの中央以外に主要被写体が存在している場合であっても、主要被写体の位置を検出して合焦制御を行う技術が存在する。
特開平03−261277号公報 特開平4−267210号公報 特開昭62−182704号公報 特開2012−123324号公報
関連技術では、初期の合焦対象領域内でコントラスト値のピークが検出されなかった場合、合焦対象領域の面積を拡大したり、合焦対象領域の位置を移動したりする。しかしながら、関連技術では、合焦対象領域の面積を拡大する場合、処理領域の拡大に伴って合焦制御処理の負荷が増大する可能性がある。また、合焦対象領域の位置を移動する場合も、移動先を決定するために、現在の合焦対象領域外の画像データを利用しているため、処理領域が拡大され、処理の負荷が増大する。
開示の技術は、1つの側面として、合焦対象領域のコントラスト評価値からレンズの合焦位置が決定されない場合の合焦制御処理の負荷を軽減する。
開示の技術において、取得部は、光軸方向のレンズの位置が互いに異なる複数の第1フレームの画像データを取得する。移動部は、複数の第1フレームの合焦対象領域のコントラスト評価値に基づいてレンズの合焦位置が決定されない場合に、合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動させる。合焦対象領域を移動する方向は、複数の第1フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて決定される。又は、合焦対象領域を移動する方向は、取得部によって新たに取得された複数の第2フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて決定される。
開示の技術は、1つの側面として、合焦対象領域のコントラスト評価値からレンズの合焦位置が決定されない場合の合焦制御処理の負荷を軽減する、という効果を有する。
実施形態に係るスマートデバイスの要部機能の一例を示すブロック図である。 実施形態に係るスマートデバイスの電気系の構成の一例を示すブロック図である。 実施形態に係る画像取得領域及び合焦対象領域の一例を示す概念図である。 実施形態に係る合焦制御処理の一例を示すフローチャートである。 実施形態に係るコントラスト値算出処理の一例を示すフローチャートである。 実施形態に係る物体検出処理の一例を示すフローチャートである。 実施形態に係るコントラスト値の一例を示すグラフである。 実施形態に係るコントラスト値の一例を示すグラフである。 実施形態に係るコントラスト値の一例を示すグラフである。 実施形態に係る画像取得領域の一例を示す概念図である。 実施形態に係る合焦対象領域の一例を示す概念図である。 実施形態に係る画像取得領域の一例を示す概念図である。 実施形態に係る合焦対象領域の一例を示す概念図である。 実施形態に係る屋外判定処理の一例を示すフローチャートである。 実施形態に係る合焦対象領域判定処理の一例を示すフローチャートである。 実施形態に係る物体方向算出処理の一例を示すフローチャートである。 実施形態に係る合焦対象領域の分割の一例を示す概念図である。 実施形態に係る合焦対象領域の移動の一例を示す概念図である。 実施形態に係る合焦対象領域の移動の一例を示す概念図である。 実施形態に係る合焦対象領域の拡大の一例を示す概念図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。なお、以下の説明では、開示の技術に係る合焦制御装置の一例としてスマートデバイスを用いた場合を例に挙げて説明するが、開示の技術はこれに限定されるものではない。開示の技術は、例えば、スマートデバイスと同様に、ユーザが手で保持して撮影操作を行うことにより画像を取得するコンパクトデジタルカメラなどに適用可能である。
一例として図1に示すスマートデバイス10は、取得部12、移動部16、及び、屋外判定部18を含む。取得部12、移動部16、及び、屋外判定部18は、相互に接続されている。取得部は、光軸方向のレンズの位置が互いに異なる複数の第1フレームの画像データを取得する。移動部は、複数の第1フレームの合焦対象領域のコントラスト評価値に基づいてレンズの合焦位置が決定されない場合に、合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動させる。合焦対象領域を移動する方向は、複数の第1フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて決定される。または、合焦対象領域を移動する方向は、取得部によって新たに取得された複数の第2フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて決定される。
スマートデバイス10は、一例として図2に示すように、CPU(Central Processing Unit)60、1次記憶部62、2次記憶部64、外部インターフェイス70、タッチパネルディスプレイ74、カメラ76、測光センサ78、及び加速度センサ79を含む。タッチパネルディスプレイ74は、タッチパネル74A及びディスプレイ74Bを含む。カメラ76は、CCDまたはCMOS等の撮像素子を含む画像取得部76A、レンズ76C、及びレンズ76Cを光軸方向に移動させるレンズ駆動部76Bを含む。CPU60、1次記憶部62、2次記憶部64、外部インターフェイス70、及びタッチパネルディスプレイ74は、バス80を介して相互に接続されている。
タッチパネル74Aはタッチパネル74Aに対するタッチ操作を検出する。ディスプレイ74Bは取得される画像などを表示する。画像取得部76Aは、画像データを取得する。レンズ駆動部76Bは、例えば、ステッピングモータ等を含み、合焦のために、複数の段階を含むマクロ端及び無限遠端の間で光軸方向にレンズ76Cを移動させる。測光センサ78は、被写体輝度を検出する。加速度センサ79は、重力加速度方向を検出する。外部インターフェイス70には、外部装置が接続され、外部装置とCPU60との間の各種情報の送受信を司る。
1次記憶部62は、例えば、RAM(Random Access Memory)などの揮発性のメモリである。2次記憶部64は、例えば、HDD(Hard Disk Drive)、またはSSD(Solid State Drive)などの不揮発性のメモリである。
2次記憶部64は、一例として、取得サブプログラム66A、移動サブプログラム66B、及び屋外判定サブプログラム66Cを含む合焦制御プログラム66を記憶している。CPU60は、2次記憶部64から取得サブプログラム66A、移動サブプログラム66B、及び屋外判定サブプログラム66Cを順次読み出して1次記憶部62に展開する。
CPU60は、取得サブプログラム66Aを実行することで、図1に示す取得部12として動作する。CPU60は、移動サブプログラム66Bを実行することで、図1に示す移動部16として動作する。CPU60は、屋外判定サブプログラム66Cを実行することで、図1に示す屋外判定部18として動作する。なお、合焦制御プログラム66は開示の技術に係る合焦制御プログラムの一例である。
図3に、本実施形態に係る画像取得領域30の一例を示す。画像取得領域30は、撮像素子によって撮影されるフレームの領域である。画像取得領域30は、縦方向及び横方向に各々複数個に格子状に分割される。ここでは、縦方向をA〜Eの5行に分割し、横方向に1〜5の5列に分割する例を示す。すなわち、画像取得領域30は、5×5の25個の領域に分割される。例えば、中央の太線で囲まれている領域は、C行3列の領域であるから、以下、領域C3と呼ぶ。本実施形態では、領域C3を、初期設定における合焦対象領域とする。合焦対象領域とは、画像取得領域の部分領域であり、合焦に利用される領域である。
次に、本実施形態の作用として、CPU60が合焦制御プログラム66を実行することで、スマートデバイス10によって行われる合焦制御処理について、図4を参照して説明する。
合焦制御処理は、例えば、スマートデバイス10のタッチパネルディスプレイ74に表示される図示しない撮影開始ボタンなどをユーザがタップすることによって開始される。
図4のステップ102で、CPU60は、図5に詳細を示すコントラスト値算出処理を開始する。図5のステップ202で、CPU60は、レンズ駆動部76Bを用いて、レンズ76Cをマクロ端に移動させる。ステップ204で、CPU60は、画像取得部76Aを用いて合焦対象領域C3の画像データを取得する。なお、ここで取得される画像データは、複数の第1フレームの画像データの一例である。また、合焦対象領域C3を含む1フレーム分の画像データを取得するようにしてもよい。
ステップ206で、CPU60は、ステップ204で取得した画像データのコントラスト値を計算する。コントラスト値は、例えば、最大輝度値と最小輝度値との和に対する最大輝度値と最小輝度値との差の比を表す式(1)で計算される。式(1)において、Lmaxは最大輝度値であり、Lminは最小輝度値である。輝度値Lは、式(2)で計算される。Rは画素値の赤成分、Gは画素値の緑成分、Bは画素値の青成分である。
コントラスト値=(Lmax−Lmin)/(Lmax+Lmin) …(1)
輝度値L=0.299R+0.587G+0.114B …(2)
なお、開示の技術におけるコントラスト評価値は上記のコントラスト値に限定されない。例えば、コントラスト値と相関のある別の評価値、詳細には、鮮鋭度等であってもよい。
ステップ208で、CPU60は、レンズ駆動部76Bを用いて、レンズ76Cを、マクロ端から無限遠端に向けて所定段階数移動させる。ステップ210で、CPU60は、レンズ76Cがマクロ端から無限遠端までの段階数分移動したか否かを判定する。判定が否定された場合、CPU60は、ステップ204に戻り、レンズ76Cが無限遠端に到達するまで、ステップ204〜ステップ210の処理を繰り返す。ステップ208では、レンズ76Cが無限遠端に到達するまでに、例えば、15フレームの画像データを取得することが可能であるように、レンズ76Cの移動段階数を設定する。以上の結果、レンズ76Cがマクロ端から無限遠端まで所定段階数ずつ移動させられ、移動させられる毎に、コントラスト値が算出される。
ステップ210で、CPU60が、レンズ76Cが無限遠端まで移動したことを判定すると、CPU60は、コントラスト値算出処理を終了し、図4のステップ104に進む。
図4のステップ104で、図3のステップ206で算出した合焦対象領域の画像データのコントラスト値からレンズ位置の移動に伴うコントラスト値のピークを山登り方式を用いて検出する。ステップ104で、ピークが検出された場合、ステップ106で、レンズ駆動部76Bを用いて、レンズ76Cを駆動し、ピークが検出された位置に移動して、合焦制御処理を終了する。
図7A〜図7Cに、縦軸をコントラスト値、横軸をレンズ位置とするグラフを例示する。図7Aに示すように、レンズ位置Xにコントラスト値のピークが存在する場合、CPU60は、レンズ位置Xにレンズ76Cを移動させ、合焦制御処理を終了する。
一方、ステップ104で、ピークが検出されなかった場合、ステップ108に進み、図6に詳細を示す物体検出処理を実行する。例えば、図7Bに示すように、コントラスト値のピークが存在しない場合、及び、図7Cに示すように、コントラスト値のピークが複数存在し、どのピークが適切なピークであるか判定が不可能である場合、CPU60は、物体検出処理を実行する。物体検出処理の詳細は図6に示す。
図6のステップ302で、CPU60は、レンズ駆動部76Bにより、レンズ76Cを所定の位置へ移動させた後、所定の位置にレンズ76Cを停止させる。所定の位置は、例えば、1m離れた位置に存在する物体に合焦するレンズ位置である。所定の位置は、レンズの結像式により予め算出される。ステップ304で、CPU60は、画像取得部76Aを用いて、初期合焦対象領域である合焦対象領域C3の画像データを取得する。ステップ306で、CPU60は、合焦対象領域C3のコントラスト値を算出する。ステップ307で、CPU60は、取得した画像データのフレーム数をカウントし、ステップ308で、CPU60は、ステップ304で所定のフレーム数を越える合焦対象領域C3の画像データを取得したか否かをステップ307のカウントに基づいて判定する。ステップ308で、所定のフレーム数を越える合焦対象領域C3の画像データを取得していないと判定された場合、CPU60は、ステップ304に戻り、ステップ304〜ステップ308の処理を繰り返す。所定のフレーム数は、例えば、15であってよい。なお、ここで取得される画像データは、複数の第2フレームの画像データの一例である。
ステップ308で、所定のフレーム数を越える画像データを取得したと判定された場合、CPU60は、ステップ310に進み、ステップ304で取得した画像データの中で最大のコントラスト値を有するフレームを選択する。ステップ312で、CPU60は、ステップ310で選択したフレームのコントラスト値が所定の閾値以上であるか否かを判定する。ステップ312で、コントラスト値が所定の閾値以上であると判定されると、合焦に利用可能な物体が存在するということであるから、ステップ316で、CPU60は、検出フラグに1を設定し、物体検出処理を終了し、図4のステップ110に進む。
ステップ312で、コントラスト値が所定の閾値未満であると判定されると、合焦に利用可能な物体が存在しないということであるから、ステップ314で、CPU60は、検出フラグに0を設定し、物体検出処理を終了し、図4のステップ110に進む。閾値は、例えば、0.4であってよいが、開示の技術はこれに限定されない。
本実施の形態は、コントラスト値算出処理のステップ204及び物体検出処理のステップ304で初期合焦対象領域の画像データを取得する間、ユーザがスマートデバイス10を手で保持している場合に適用される。ユーザが図8に例示する風景の画像データを取得しようとする場合、ユーザが意識的に手を動かさなくても、図9のフレーム1〜フレーム15に例示するように、手振れにより、合焦対象領域C3の画像データは変動する。例えば、図9のフレーム2〜フレーム6では、合焦対象領域C3の右下隅に物体(ビルの上端角部)の画像データが入り込む。ここでは、図9のフレーム4の画像データのコントラスト値が最大となり、ステップ310で、図9のフレーム4が選択される。コントラスト値が所定の閾値以上である場合、ステップ316で検出フラグに1が設定される。コントラスト値が所定の閾値未満であれば、ステップ314で検出フラグに0が設定される。
ユーザが図10に例示する風景の画像データを取得しようとする場合、手振れが生じたとしても、図11のフレーム1〜フレーム15に例示するように、合焦対象領域C3の画像データは変動しない。すなわち、図11のフレーム1〜フレーム15では、合焦対象領域C3に物体の画像データは入り込まない。合焦対象領域C3に対応する風景の部分の近傍には物体が存在しないためである。ここでは、いずれのフレームの画像データのコントラスト値も所定の閾値未満であり、ステップ314で検出フラグに0が設定される。
図4のステップ110で、CPU60は、検出フラグが0であるか1であるかを判定する。検出フラグが0であると判定されると、CPU60は、ステップ112に進み、図12に詳細を示す屋外判定処理を実行する。図12のステップ402で、CPU60は、被写体輝度値BVを、測光センサ78によって検出された被写体輝度に基づいて算出する。
ステップ404で、CPU60は、被写体輝度値BVが所定の閾値以上であるか否か判定する。ステップ404で、被写体輝度値BVが所定の閾値以上であると判定されると、ステップ406で、CPU60は、合焦対象領域C3の画像データが屋外の画像データであると判定し、判定フラグに1を設定し、屋外判定処理を終了し、図4のステップ114に進む。ステップ404で、被写体輝度値BVが所定の閾値未満であると判定されると、ステップ408で、CPU60は、合焦対象領域C3の画像データが屋内の画像データであると判定し、判定フラグに0を設定し、屋外判定処理を終了し、図4のステップ114に進む。所定の閾値は、例えば、5であってよい。
図4のステップ114で、CPU60は、判定フラグが0であるか1であるか判定する。ステップ114で、判定フラグが1であると判定されると、ステップ116で、CPU60は、物体方向を加速度センサ79で検出された重力加速度方向(以下、重力加速度方向を便宜的に下方向と称し、他の方向を「下方向」を基準として説明する)に設定し、ステップ122に進み、図13に詳細を示す合焦対象領域変更処理を実行する。屋外において合焦対象領域に物体が検出されない場合、当該画像データは空に対応する可能性が高く、その場合、合焦対象領域の下に存在する領域、すなわち、被写体の重力加速度方向に存在する領域に合焦に利用可能な物体が存在する可能性が高いため、後述するように、合焦対象領域を画像取得領域30内で下方向に移動する。
ステップ114で、判定フラグが0であると判定されると、ステップ118で、CPU60は、物体方向をnullに設定し、ステップ122に進み、図13に詳細を示す合焦対象領域変更処理を実行する。屋内において合焦対象領域に物体が検出されない場合、合焦に利用可能な物体がどこに存在する可能性が高いか不明であるため、後述するように、合焦対象領域を移動するのではなく、合焦対象領域の面積を拡大する。これは、合焦対象領域の面積を拡大すると、合焦対象領域の画像データに合焦に利用可能な物体に対応する画像データが含まれることになる可能性が高くなるためである。
図4のステップ110に説明を戻す。CPU60が、検出フラグが0であるか1であるかを判定したときに、検出フラグが1であると判定されると、CPU60は、ステップ120に進み、図14に詳細を示す物体方向算出処理を実行する。
図14のステップ502で、CPU60は、図15に示すように合焦対象領域C3を3×3個の複数領域に分割する。ステップ504で、図15に(2)で示す領域に対応する画像データのコントラスト値を算出する。ステップ506で、(1)で示す中央の領域以外の8個の領域(2)〜(9)のコントラスト値が全て算出されたか否かを判定する。ステップ506で、中央の領域(1)以外の8個の領域のコントラスト値が全て算出されていないと判定されると、CPU60は、ステップ504に戻り、(2)〜(9)の領域のコントラスト値が全て算出されるまで、ステップ504及びステップ506の処理を繰り返す。
ステップ506で、(2)〜(9)の領域のコントラスト値が全て算出されたことが判定されると、ステップ508で、CPU60は、物体方向として、合焦対象領域C3の中央からコントラスト値が最大である領域に向かう方向を設定し、図4のステップ122に進み、図13に詳細を示す合焦対象領域変更処理を実行する。
ステップ310で選択された図9のフレーム4に例示する画像データでは、領域(6)のコントラスト値が最大となるため、物体方向として領域(6)に向かう方向が設定される。合焦対象領域C3内の右下隅の領域(6)のコントラスト値が最大である場合、合焦対象領域C3の右斜め下に存在する領域D4に合焦に利用可能な物体が存在する可能性が高いため、後述するように、合焦対象領域を右斜め下方向に移動する。
図13のステップ602で、CPU60は、物体方向がnullであるか否か判定する。ステップ602で、物体方向がnullではないと判定されると、ステップ604で、CPU60は、物体方向に設定されている方向に合焦対象領域を移動して、図4のステップ124で、図5に詳細を示すコントラスト値算出処理を実行する。
例えば、ステップ116で、物体方向に下方向が設定されている場合、図16に示すように、合焦対象領域は領域C3から領域D3に移動する。
例えば、ステップ508で、物体方向に右斜め下方向が設定されている場合、図17に示すように、合焦対象領域は領域C3から領域D4に移動する。
ステップ602で、物体方向がnullであると判定されると、ステップ606で、図18に示すように、CPU60は、合焦対象領域を領域C3から領域B2、B3、B4、C2、C3、C4、D2、D3、D4を含む矩形領域に拡大する。次に、図4のステップ124で、CPU60は、図5に詳細を示すコントラスト値算出処理を実行する。
ステップ124のコントラスト値算出処理については、上記したため、詳細については省略する。コントラスト値算出処理を終了すると、CPU60は、ステップ106で、レンズ駆動部76Bでレンズ76Cを駆動して、コントラスト値がピークとなる位置に移動し、合焦制御処理を終了する。
開示の技術では、光軸方向に移動されたレンズの各位置に応じたフレームを含む複数の第1フレームの画像データを取得する。また、開示の技術では、複数の第1フレームの合焦対象領域のコントラスト値に基づいてレンズの合焦位置が決定されない場合に、複数の第2フレームの画像データを取得する。また、開示の技術では、複数の第2フレームの各々の合焦対象領域のコントラスト値の大きさ及びコントラストの位置に基づいて合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動する。これにより、開示の技術では、複数の第1フレームの合焦対象領域のコントラスト値に基づいてレンズの合焦位置が決定されない場合でも、合焦に利用可能な物体に対応する画像データが存在する可能性が高い領域に合焦対象領域を移動することが可能となる。ここで、合焦対象領域外の画像データは、用いられない。したがって、合焦制御処理に生じる負荷を軽減することが可能となる。
開示の技術では、合焦対象領域内の領域(2)〜(9)から、コントラスト値が閾値を越える領域が検出されない場合であっても、合焦対象領域の画像データが屋外の画像データである場合、合焦対象領域の下方向に合焦対象領域の位置を移動する。これにより、開示の技術では、合焦対象領域内の領域(2)〜(9)のいずれに合焦に利用可能な物体に対応する画像データが存在するかが不明な場合であっても、合焦に利用可能な物体に対応する画像データが存在する可能性が高い方向に合焦対象領域を移動することが可能となる。したがって、合焦制御処理に生じる負荷を軽減することが可能となる。
開示の技術では、前記合焦対象領域の画像データが屋外の画像データではない場合、合焦対象領域の面積を拡大する。これにより、開示の技術では、現在の合焦対象領域に対する合焦に利用可能な物体に対応する画像データが存在する領域の位置が不明な場合であっても、合焦に利用可能な物体に対応する画像データを合焦対象領域に含めることが可能となる。したがって、合焦制御処理に生じる負荷を軽減することが可能となる。
なお、上記では、合焦制御プログラム66が、2次記憶部64に予め記憶(インストール)されている態様を説明した。しかしながら、合焦制御プログラム66は、CD−ROMやDVD−ROM等の非一時的記録媒体に記録されている形態で提供することも可能である。また、合焦制御プログラム66は遠隔のサーバに記憶されていてもよい。例えば、スマートデバイスは、インターネットなどの通信回線を介して遠隔のサーバに記憶されている合焦制御プログラム66の実行結果を受信してもよい。
なお、上記実施形態では、図3に示すように、画像取得領域30を5×5の格子状の領域に分割したが、開示の技術はこれに限定されない。例えば、6×6の格子状の領域に分割してもよいし、16×16の格子状の領域に分割してもよい。
なお、上記実施形態では、初期の合焦対象領域を図3のC3領域としたが、開示の技術はこれに限定されない。例えば、B2、B3、B4、C2、C3、C4、D2、D3、D4を含む矩形領域を合焦対象領域としてもよい。
なお、上記実施形態では、図5に示すコントラスト値算出処理において、レンズ76Cをマクロ端から無限遠端に移動する例について説明したが、開示の技術はこれに限定されない。例えば、レンズ76Cの現在位置が無限遠端に近ければ、レンズ76Cを無限遠端からマクロ端に移動するようにしてもよい。また、レンズ76Cの一方の端位置から他方の端位置への移動を開始し、合焦位置と判断できるコントラスト値のピークを検出した場合に、他方の端位置へのレンズ76Cの移動を停止して合焦位置へ移動させるようにしてもよい。
なお、上記実施形態では、図5に示すコントラスト値算出処理において、合焦対象領域の画像データを取得し、その後、レンズ76Cを移動しているが、開示の技術はこれに限定されない。レンズ76Cを移動し、その後、合焦対応領域の画像データを取得するようにしてもよい。
なお、図9のフレーム1〜フレーム15の合焦対象領域の画像データは、ユーザの手振れにより、合焦対象領域に物体が入り込むように撮影されてもよい。しかしながら、開示の技術はこれに限定されない。例えば、ユーザが合焦対象領域を移動させる目的で、意図的に、合焦対象領域に物体が入り込むように、スマートデバイスを保持している手を微細に動かすことによって、合焦対象領域に物体が入り込むように撮影されてもよい。
なお、上記実施形態では、被写体輝度値BVを用いて、図12に例示する屋外判定処理を実行したが、開示の技術はこれに限定されない。例えば、一般的な空検出アルゴリズムまたは青空検出アルゴリズムを用いて、合焦対象領域の画像データが空または青空に対応する画像データであることを判定してもよい。
なお、上記実施形態では、図13のステップ604で、図16及び図17に例示するように、合焦対象領域を分割した行の高さ及び列の幅の長さだけ移動する例を示したが、開示の技術はこれに限定されない。例えば、合焦対象領域を、行の高さの1/2及び列の幅の1/2の長さだけ移動するようにしてもよい。
なお、上記実施形態では、ステップ606で、図18に例示するように、合焦対象領域を行の高さ及び列の幅の長さだけ拡大する例を示したが、開示の技術はこれに限定されない。例えば、合焦対象領域を拡大する高さ及び幅は、行の高さの1/2及び列の幅の1/2の長さであってもよい。
なお、例えば、図3の画像取得領域30は、合焦制御処理の間、タッチパネルディスプレイ74に表示されていてもよい。また、行及び列の境界を示す線及び合焦対象領域を示す線もタッチパネルディスプレイ74に表示されていてもよい。
また、上記では、複数の第1フレームの画像データを取得した後、コントラスト評価値からレンズの合焦位置が決定されない場合に、レンズ76Cが所定の位置に位置している状態で、複数の第2フレームの画像データを取得する態様を説明した。しかしながら、開示の技術はこれに限定されない。複数の第2フレームの画像データの取得を省略し、複数の第1フレームの画像データを用いて、図4のステップ108の物体検出処理以降の処理を行うようにしてもよい。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
光軸方向のレンズの位置が互いに異なる複数の第1フレームの画像データを取得する取得部と、
前記複数の第1フレームの合焦対象領域のコントラスト評価値に基づいて前記レンズの合焦位置が決定されない場合に、前記複数の第1フレーム、又は、前記取得部によって新たに取得された複数の第2フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動させる移動部と、
を含む合焦制御装置。
(付記2)
前記移動部によって前記合焦対象領域を移動する方向が決定されない場合に、前記合焦対象領域の画像データが屋外の画像データであるか否か判定する屋外判定部、をさらに含み、
前記移動部は、前記屋外判定部が、前記合焦対象領域の画像データが屋外の画像データであると判定した場合、前記合焦対象領域の位置を被写体の重力加速度方向へ移動させる、
付記1に記載の合焦制御装置。
(付記3)
前記屋外判定部が、前記合焦対象領域の画像データが屋外の画像データではないと判定した場合、前記移動部は、前記合焦対象領域の面積を拡大させる、
付記2に記載の合焦制御装置。
(付記4)
光軸方向のレンズの位置が互いに異なる複数の第1フレームの画像データを取得し、
前記複数の第1フレームの合焦対象領域のコントラスト評価値に基づいて前記レンズの合焦位置が決定されない場合に、前記複数の第1フレーム、又は、新たに取得された複数の第2フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動させる、
処理をコンピュータに実行させるための合焦制御プログラム。
(付記5)
前記合焦対象領域を移動する方向が決定されない場合に、前記合焦対象領域の画像データが屋外の画像データであるか否か判定し、
前記合焦対象領域の画像データが屋外の画像データであると判定した場合、前記合焦対象領域の位置を被写体の重力加速度方向へ移動させる、
処理をコンピュータに実行させるための付記4に記載の合焦制御プログラム。
(付記6)
前記合焦対象領域の画像データが屋外の画像データではないと判定した場合、前記合焦対象領域の面積を拡大させる、
処理をコンピュータに実行させるための付記5に記載の合焦制御プログラム。
10 スマートデバイス
12 取得部
16 移動部
18 屋外判定部
60 CPU
62 1次記憶部
64 2次記憶部
74 タッチパネルディスプレイ
76 カメラ

Claims (4)

  1. 光軸方向のレンズの位置が互いに異なる複数の第1フレームの画像データを取得する取得部と、
    前記複数の第1フレームの合焦対象領域のコントラスト評価値に基づいて前記レンズの合焦位置が決定されない場合に、前記複数の第1フレーム、又は、前記取得部によって新たに取得された複数の第2フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動させる移動部と、
    を含む合焦制御装置。
  2. 前記移動部によって前記合焦対象領域を移動する方向が決定されない場合に、前記合焦対象領域の画像データが屋外の画像データであるか否か判定する屋外判定部、をさらに含み、
    前記移動部は、前記屋外判定部が、前記合焦対象領域の画像データが屋外の画像データであると判定した場合、前記合焦対象領域の位置を被写体の重力加速度方向へ移動させる、
    請求項1に記載の合焦制御装置。
  3. 前記屋外判定部が、前記合焦対象領域の画像データが屋外の画像データではないと判定した場合、前記移動部は、前記合焦対象領域の面積を拡大させる、
    請求項2に記載の合焦制御装置。
  4. 光軸方向のレンズの位置が互いに異なる複数の第1フレームの画像データを取得し、
    前記複数の第1フレームの合焦対象領域のコントラスト評価値に基づいて前記レンズの合焦位置が決定されない場合に、前記複数の第1フレーム、又は、新たに取得された複数の第2フレームの画像データの各々における合焦対象領域内のコントラスト評価値の大きさ及びコントラスト評価値が所定の閾値以上の領域の位置に基づいて合焦対象領域を移動する方向を決定し、決定した方向に合焦対象領域を移動させる、
    処理をコンピュータに実行させるための合焦制御プログラム。
JP2014241124A 2014-11-28 2014-11-28 合焦制御装置及び合焦制御プログラム Expired - Fee Related JP6323314B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014241124A JP6323314B2 (ja) 2014-11-28 2014-11-28 合焦制御装置及び合焦制御プログラム
US14/932,853 US9621788B2 (en) 2014-11-28 2015-11-04 Focus control device, non-transitory computer readable recording medium having therein program for focus control, and method for focus control
EP15193234.0A EP3026888B1 (en) 2014-11-28 2015-11-05 Focus control device, program for focus control, and method for focus control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014241124A JP6323314B2 (ja) 2014-11-28 2014-11-28 合焦制御装置及び合焦制御プログラム

Publications (2)

Publication Number Publication Date
JP2016102900A JP2016102900A (ja) 2016-06-02
JP6323314B2 true JP6323314B2 (ja) 2018-05-16

Family

ID=54608273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014241124A Expired - Fee Related JP6323314B2 (ja) 2014-11-28 2014-11-28 合焦制御装置及び合焦制御プログラム

Country Status (3)

Country Link
US (1) US9621788B2 (ja)
EP (1) EP3026888B1 (ja)
JP (1) JP6323314B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106993129B (zh) * 2017-03-06 2019-05-17 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
JP6799712B2 (ja) * 2018-03-30 2020-12-16 富士フイルム株式会社 合焦制御装置、合焦制御方法、及びプログラム
GB2586980B (en) * 2019-09-10 2023-02-15 Advanced Risc Mach Ltd Contrast-based autofocus

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62182704A (ja) 1986-02-05 1987-08-11 Olympus Optical Co Ltd オ−トフオ−カス装置
GB2209901B (en) 1987-09-11 1992-06-03 Canon Kk Image sensing device
JP2748637B2 (ja) 1990-03-09 1998-05-13 ソニー株式会社 オートフォーカス制御装置
JPH04267210A (ja) * 1991-02-22 1992-09-22 Olympus Optical Co Ltd 自動合焦装置
JPH0638089A (ja) * 1992-07-20 1994-02-10 Konica Corp 自動合焦装置
JP4149528B2 (ja) * 1996-01-17 2008-09-10 オリンパス株式会社 自動焦点検出装置
JP2002333573A (ja) * 2001-05-11 2002-11-22 Fuji Photo Film Co Ltd カメラ
JP2003315663A (ja) * 2002-04-22 2003-11-06 Toshiba Corp 自動合焦装置及び自動合焦方法
JP2005173269A (ja) 2003-12-11 2005-06-30 Canon Inc 光学機器
US7909256B2 (en) * 2005-12-31 2011-03-22 Motorola Mobility, Inc. Method and system for automatically focusing a camera
JP4873729B2 (ja) 2007-04-06 2012-02-08 キヤノン株式会社 光学機器
JP2009278486A (ja) * 2008-05-16 2009-11-26 Nikon Corp 撮像装置
JP2010134309A (ja) * 2008-12-08 2010-06-17 Renesas Electronics Corp オートフォーカス装置、オートフォーカス方法及び撮像装置
JP5030308B2 (ja) * 2009-08-18 2012-09-19 キヤノン株式会社 自動合焦装置とその制御方法並びに撮像装置
JP5665512B2 (ja) * 2010-12-10 2015-02-04 富士フイルム株式会社 撮像装置及び主要被写体検出方法
JP2012125293A (ja) * 2010-12-13 2012-07-05 Olympus Corp 制御装置、内視鏡装置及びフォーカス制御方法
JP2014153509A (ja) 2013-02-07 2014-08-25 Canon Inc 撮像装置及び撮像方法

Also Published As

Publication number Publication date
JP2016102900A (ja) 2016-06-02
EP3026888B1 (en) 2019-03-27
US9621788B2 (en) 2017-04-11
EP3026888A3 (en) 2016-06-08
US20160156833A1 (en) 2016-06-02
EP3026888A2 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
US10237491B2 (en) Electronic apparatus, method of controlling the same, for capturing, storing, and reproducing multifocal images
CN103139464B (zh) 提供全景图像的方法及其成像设备
EP2884737A1 (en) Apparatus, method and program for controlling phase difference autofocus in dependence upon object brightness
CN105230001A (zh) 图像处理设备、处理图像的方法、图像处理程序,以及成像设备
JP6518452B2 (ja) 撮像装置及び撮像方法
EP2882183A1 (en) Electronic apparatus and method of controlling the same
JP6323314B2 (ja) 合焦制御装置及び合焦制御プログラム
US9137506B2 (en) User interface (UI) providing method and photographing apparatus using the same
US9912858B2 (en) Image capturing apparatus and control method thereof
US10587811B2 (en) Display control apparatus and control method for the same
JP2011049973A5 (ja) 撮像装置、その制御方法及びプログラム
US8334919B2 (en) Apparatus and method for digital photographing to correct subject area distortion caused by a lens
US20150015771A1 (en) Image-capturing devices and methods
JP6833405B2 (ja) 焦点検出装置、焦点調節装置、撮像装置及び焦点検出方法
US10694096B2 (en) Image pickup apparatus, method for controlling image pickup apparatus, and computer-readable storage medium
JP2011154194A (ja) 撮像装置
JP2015215372A (ja) 焦点調節装置、焦点調節装置の制御方法、焦点調節装置の制御プログラム及び記憶媒体
JP5404238B2 (ja) 撮像装置
JP6672085B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2020086216A (ja) 撮像制御装置、撮像装置及び撮像制御プログラム
JP6381212B2 (ja) 撮像装置及びその制御方法
JP6131519B2 (ja) 画像処理装置、撮像装置、及び画像処理プログラム
JP5842884B2 (ja) 追尾装置およびカメラ
JP5359715B2 (ja) 被写体追尾装置、被写体追尾方法、およびカメラ
JP5949306B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6323314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees