JP2012247533A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2012247533A
JP2012247533A JP2011117783A JP2011117783A JP2012247533A JP 2012247533 A JP2012247533 A JP 2012247533A JP 2011117783 A JP2011117783 A JP 2011117783A JP 2011117783 A JP2011117783 A JP 2011117783A JP 2012247533 A JP2012247533 A JP 2012247533A
Authority
JP
Japan
Prior art keywords
distance
depth
changing
adjustment
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011117783A
Other languages
English (en)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011117783A priority Critical patent/JP2012247533A/ja
Priority to US13/463,297 priority patent/US20120300035A1/en
Publication of JP2012247533A publication Critical patent/JP2012247533A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Abstract

【構成】イメージセンサ16は光学系を通してシーンを捉える。CPU26は、被写体距離を指定距離に調整し、調整の完了に対応して被写界深度を既定深度に調整する。タッチセンサ50およびCPU26は、指定距離の大きさを変更する変更操作を受け付ける。CPU26はまた、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する。
【効果】撮像手段から出力される画像の品質の向上。
【選択図】図2

Description

この発明は、電子カメラに関し、特に被写体距離を指定距離に調整する、電子カメラに関する。
この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、顔情報検出回路は、撮像素子が取得した画像データから被写体の顔の情報を検出する。被写体距離推定部は、検出された被写体の顔の情報に基づいて被写体距離を推定する。オートフォーカス制御部は、被写体距離推定部により推定された被写体距離に基づいて、オートフォーカスを制御する。
特開2006−018246号公報
しかし、背景技術では、顔の情報に基づいて被写体距離が推定され、推定された被写体距離に基づいてオートフォーカスが制御されるため、被写体距離が大きく変更される場合に画像のぼけが大きくなり、画像の品質が低下する恐れがある。
それゆえに、この発明の主たる目的は、撮像手段から出力される画像の品質を向上させることができる、電子カメラを提供することである。
この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、光学系を通してシーンを捉える撮像手段(16)、被写体距離を指定距離に調整する距離調整手段(S75, S89, S109, S111, S119, S121, S123, S131)、距離調整手段の調整の完了に対応して被写界深度を既定深度に調整する深度調整手段(S77, S91, S125)、指定距離の大きさを変更する変更操作を受け付ける受け付け手段(50, S93)、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する変更手段(S113)を備える。
好ましくは、変更操作を受け付けた時点の被写体距離と変更操作によって指定された距離との差分に応じて異なるように拡大深度の大きさを設定する設定手段(S107)をさらに備える。
好ましくは、距離調整手段は、変更操作に応答して現在距離と指定距離との間の距離に被写体距離を調整する第1距離調整手段(S111)、および第1距離調整手段の調整後に被写体距離を指定距離に調整する第2距離調整手段(S123)を含み、変更手段は第1距離調整手段によって調整された被写体距離の長さに応じて異なるように拡大深度の大きさを調整する。
さらに好ましくは、深度調整手段は第2距離調整手段の調整処理に関連して被写界深度を既定深度に調整する既定深度調整手段(S125)を含む。
さらに好ましくは、距離調整手段は現在距離と指定距離との間に存在する複数の距離の各々を第1距離調整手段によって注目される距離として指定する距離指定手段(S109, S119)をさらに含み、変更手段は距離指定手段の指定毎に拡大深度の大きさを調整する。
好ましくは、変更操作はシーンに存在する所望の被写体を指定する操作に相当し、変更操作によって指定された被写体までの距離を指定距離として算出する算出手段(S103~S105)をさらに備える。
さらに好ましくは、変更操作によって指定される被写体は人物の顔に相当し、算出手段は変更操作によって指定された被写体を表す画像のサイズに基づいて算出処理を実行する。
この発明に従う撮像制御プログラムは、光学系を通してシーンを捉える撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、被写体距離を指定距離に調整する距離調整ステップ(S75, S89, S109, S111, S119, S121, S123, S131)、距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ(S77, S91, S125)、指定距離の大きさを変更する変更操作を受け付ける受け付けステップ(50, S93)、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する変更ステップ(S113)を実行させるための、撮像制御プログラムである。
この発明に従う撮像制御方法は、光学系を通してシーンを捉える撮像手段(16)を備える電子カメラによって実行される撮像制御方法であって、被写体距離を指定距離に調整する距離調整ステップ(S75, S89, S109, S111, S119, S121, S123, S131)、距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ(S77, S91, S125)、指定距離の大きさを変更する変更操作を受け付ける受け付けステップ(50, S93)、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する変更ステップ(S113)を備える。
この発明に従う外部制御プログラムは、光学系を通してシーンを捉える撮像手段(16)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、被写体距離を指定距離に調整する距離調整ステップ(S75, S89, S109, S111, S119, S121, S123, S131)、距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ(S77, S91, S125)、指定距離の大きさを変更する変更操作を受け付ける受け付けステップ(50, S93)、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する変更ステップ(S113)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。
この発明に従う電子カメラ(10)は、光学系を通してシーンを捉える撮像手段(16)、外部制御プログラムを受信する受信手段(60)、および受信手段によって受信された外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)であって、外部制御プログラムは、被写体距離を指定距離に調整する距離調整ステップ(S75, S89, S109, S111, S119, S121, S123, S131)、距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ(S77, S91, S125)、指定距離の大きさを変更する変更操作を受け付ける受け付けステップ(50, S93)、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する変更ステップ(S113)を内部制御プログラムと協働して実行するプログラムに相当する。
被写体距離の指定の大きさを変更する操作に応答して、被写界深度が既定深度よりも大きい拡大深度に変更される。
したがって、被写体距離の調整前よりも被写界深度が大きい深度に設定されるので、被写体距離が大きく変更される場合であっても、被写体距離の変更に伴うぼけを減少させ、撮像手段から出力される画像の品質を向上させることができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例の基本的構成を示すブロック図である。 この発明の一実施例の構成を示すブロック図である。 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。 撮像面における評価エリアの割り当て状態の一例を示す図解図である。 顔検出処理において用いられる顔検出枠の一例を示す図解図である。 顔検出処理において参照される顔辞書の構成の一例を示す図解図である。 顔検出処理の一部を示す図解図である。 図2実施例において参照されるレジスタの構成の一例を示す図解図である。 図2実施例において参照される他のレジスタの構成の一例を示す図解図である。 (A)は顔検出処理において用いられる顔検出枠の一例を示す図解図であり、(B)は主要顔画像周辺の既定の範囲の一例を示す図解図である。 図2実施例において参照されるテーブルの構成の一例を示す図解図である。 (A)はLCDモニタの表示の一例を示す図解図であり、(B)は特定AF処理の一部を示す図解図である。 (A)はLCDモニタの表示の他の一例を示す図解図であり、(B)は特定AF処理の他の一部を示す図解図である。 (A)はLCDモニタの表示のその他の一例を示す図解図であり、(B)は特定AF処理のその他の一部を示す図解図である。 (A)はLCDモニタの表示のさらにその他の一例を示す図解図であり、(B)は特定AF処理のさらにその他の一部を示す図解図である。 (A)はLCDモニタの表示の他の一例を示す図解図であり、(B)は特定AF処理の他の一部を示す図解図である。 図2実施例に適用されるCPUの動作の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 この発明の他の実施例に適用されるCPUの動作の一部を示すフロー図である。 この発明のその他の実施例の構成を示すブロック図である。
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は光学系を通してシーンを捉える。距離調整手段2は、被写体距離を指定距離に調整する。深度調整手段3は、距離調整手段2の調整の完了に対応して被写界深度を既定深度に調整する。受け付け手段4は、指定距離の大きさを変更する変更操作を受け付ける。変更手段5は、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する。
被写体距離の指定の大きさを変更する操作に応答して、被写界深度が既定深度よりも大きい拡大深度に変更される。
したがって、被写体距離の調整前よりも被写界深度が大きい深度に設定されるので、被写体距離が大きく変更される場合であっても、被写体距離の変更に伴うぼけを減少させ、撮像手段から出力される画像の品質を向上させることができる。
[実施例]
図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、ドライバ18cによって駆動されるイメージセンサ16の撮像面に照射され、光電変換を施される。
電源が投入されると、CPU26は、動画取り込み処理を実行するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、イメージセンサ16の撮像面を露光し、かつイメージセンサ16の撮像面で生成された電荷をラスタ走査態様でそれぞれ読み出す。イメージセンサ16からは読み出された電荷に基づく生画像データが周期的に出力される。
前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる(図3参照)。
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32bに書き込まれる(図3参照)。
後処理回路34はさらに、YUV形式に従う画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32cに書き込まれる(図3参照)。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32dに書き込まれる(図3参照)。
LCDドライバ36は、表示画像エリア32cに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がLCDモニタ38に表示される。
図4を参照して、イメージセンサ16の撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。AF評価回路24は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。こうして得られたAE評価値およびAF評価値に基づく処理については、後述する。
キー入力装置28に向けて記録開始操作が行われると、CPU26は、記録処理を開始するべく、MP4コーデック46およびI/F40を撮像タスクの下で起動する。MP4コーデック46は、YUV画像エリア32bに格納された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをMPEG4方式に従って圧縮する。圧縮画像データつまりMP4データは、メモリ制御回路30によって記録画像エリア32eに書き込まれる(図3参照)。I/F40は、記録画像エリア32eに格納されたMP4データをメモリ制御回路30を通して読み出し、読み出されたMP4データを記録媒体42に作成された画像ファイルに書き込む。
キー入力装置28に向けて記録終了操作が行われると、CPU26は、記録処理を終了するべくMP4コーデック46およびI/F40を停止する。
撮像タスクと並列して実行される顔検出タスクの下で、CPU26は、フラグFLG_fを“0”に初期設定する。CPU26は次に、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、垂直同期信号Vsyncが発生する毎に顔検出処理を実行する。
顔検出処理では、図5に示す要領でサイズが調整される顔検出枠FDと図6に示す5つの辞書画像(=向きが互いに異なる顔画像)を収めた顔辞書FDCとが用いられる。なお、顔辞書FDCはフラッシュメモリ44に保存される。
顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxが“200”に設定され、最小サイズFSZminが“20”に設定される。
顔検出枠FDは、探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図7参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“FSZmax”から“FSZmin”まで“5”ずつ縮小される。
顔検出枠FDに属する一部の探索画像データは、メモリ制御回路30を通して探索画像エリア32dから読み出される。読み出された探索画像データの特徴量は、顔辞書FDCに収められた5つの辞書画像の各々の特徴量と照合される。閾値THを超える照合度が得られると、顔画像が検出されたものとみなされる。現時点の顔検出枠FDの位置およびサイズは、顔情報として図8に示す顔検出レジスタRGSTdtに登録される。また、CPU26は、人物を発見したことを表明するべくフラグFLG_fを“1”に設定する。
なお、顔検出処理の完了後に顔検出レジスタRGSTdtに顔情報の登録がなかった場合、すなわち人物の顔が発見されなかった場合は、CPU26は、人物の顔が未発見であることを表明するべくフラグFLG_fを“0”に設定する。
フラグFLG_fが“0”を示すとき、撮像タスクと並列して実行されるAE/AF制御タスクの下でCPU26は、シーン中央に注目したAF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、シーン中央の既定領域に対応するAF評価値を抽出し、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、シーン中央に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像の鮮鋭度が継続的に向上する。
CPU26は次に、絞りユニット14の絞り量の調整をドライバ18bに命令する。この調整によって、既定の被写界深度のうち最も深い“Da”に被写界深度が設定される。
フラグFLG_fが“0”を示すとき、AE/AF制御タスクの下でCPU26はまた、AE評価回路22から出力された256個のAE評価値に基づき、シーン全体を考慮したAE処理を実行する。AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像または記録画像の明るさが、シーン全体を考慮した明るさに調整される。
フラグFLG_fが“1”に更新されると、撮像タスクの下でCPU26は、顔検出レジスタRGSTdtの登録内容を参照して、顔枠GFの表示をグラフィックジェネレータ48に要求する。グラフィックジェネレータ48は、顔枠GFを表すグラフィック情報をLCDドライバ36に向けて出力する。顔枠GFは、顔検出タスクの下で検出された顔画像の位置およびサイズに適合する態様でLCDモニタ38に表示される。
したがって、人物HM1およびHM2の各々の顔が撮像面に捉えられたとき、顔枠GF1およびGF2は、人物HM1の顔画像および人物HM2の顔画像をそれぞれ囲うように、図12(A)に示す要領でLCDモニタ38に表示される。
フラグFLG_fが“1”に更新されるとまた、AE/AF制御タスクの下でCPU26は、顔検出レジスタRGSTdtに登録された顔画像の中から主要顔画像を決定する。顔検出レジスタRGSTdtに1つの顔画像が登録されている場合、CPU26は、登録された顔画像を主要顔画像とする。顔検出レジスタRGSTdtに複数の顔画像が登録されている場合、CPU26は、サイズが最も大きい顔画像を主要顔画像とする。最大サイズを示す複数の顔画像が登録されている場合、CPU26は、これらの顔画像のうちシーン中央に最も近い顔画像を主要顔画像とする。主要顔画像とされた顔画像の位置およびサイズは、図9に示す主要顔画像レジスタRGSTmaに登録される。
主要顔画像が決定されると、AE/AF制御タスクの下でCPU26は、主要顔画像に注目したAF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、主要顔画像レジスタRGSTmaに登録された位置およびサイズに対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、主要顔画像に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像における主要顔画像の鮮鋭度が向上する。
主要顔画像に注目したAF処理が完了すると、CPU26は、絞りユニット14の絞り量の調整をドライバ18bに命令する。この調整によって、既定の被写界深度のうち最も浅い“Db”に被写界深度が設定される。
CPU26は次に、AE/AF制御タスクの下で、AE評価回路22から出力された256個のAE評価値のうち、主要顔画像レジスタRGSTmaに登録された位置およびサイズに対応するAE評価値を抽出する。CPU26は、抽出された一部のAE評価値に基づき、主要顔画像に注目したAE処理を実行する。AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像または記録画像の明るさが、主要顔画像に注目した明るさに調整される。
主要顔画像が決定されるとまた、撮像タスクの下でCPU26は、主要顔画像レジスタRGSTmaの登録内容を参照して、主要顔枠MFの表示をグラフィックジェネレータ48に要求する。グラフィックジェネレータ48は、主要顔枠MFを表すグラフィック情報をLCDドライバ36に向けて出力する。主要顔枠MFは、主要顔画像レジスタRGSTmaに登録された顔画像の位置およびサイズに適合する態様でLCDモニタ38に表示される。
図12(A)に示す例によると、人物HM1が人物HM2の至近側に存在し、人物HM2の顔画像のサイズよりも人物HM1の顔画像のサイズの方が大きい。したがって、人物HM1の顔画像が主要顔画像と決定され、人物HM1の顔情報が主要顔画像レジスタRGSTmaに登録される。
次に、主要顔画像の人物HM1の顔画像に注目したAF処理が実行された上で、既定の被写界深度のうち最も浅い“Db”に被写界深度が設定される。この結果、人物HM2の顔画像の鮮鋭度が低下する一方、人物HM1の顔画像の鮮鋭度が向上する。また、主要顔画像の人物HM1の顔画像に注目したAE処理が実行され、スルー画像または記録画像の明るさが、人物HM1の顔画像に注目した明るさに調整される。さらに、主要顔枠MFが、人物HM1の顔画像を囲うように、図12(A)に示す要領でLCDモニタ38に表示される。
主要顔画像レジスタRGSTmaに主要顔画像が登録されると、顔検出レジスタRGSTdtを参照して、主要顔画像周辺の既定の範囲ARに顔画像が存在するか否かを繰り返し判別する。主要顔画像周辺の既定の範囲ARは、以下の要領で求められる。
主要顔画像レジスタRGSTmaに記述されたサイズは、顔画像の検出時の顔検出枠FDのサイズを示す。図10(A)に示すように顔検出枠FDの一辺の長さを“FL”とすると、図10(B)を参照して、主要顔画像周辺の既定の範囲ARは例えば、縦が“2.4×FL”の長さであって横が“3×FL”の長さである主要顔画像を中心とした矩形の範囲とすることができる。なお、これ以外の範囲を既定の範囲ARとしてもよい。
主要顔画像の周辺に顔画像が存在した場合は、その顔画像が移動後の主要顔画像を示すと判断され、主要顔画像レジスタRGSTmaの記述が更新される。主要顔画像の周辺に顔画像が存在しなかった場合は、CPU26は、AE/AF制御タスクの下で再び、顔検出レジスタRGSTdtに登録された顔画像の中から主要顔画像を決定する。また、フラグFLG_fが“1”から“0”に更新されると、主要顔画像レジスタRGSTmaの登録内容はクリアされる。
スルー画像がLCDモニタ38に表示されている状態でLCDモニタ38に対するタッチ操作が行われると、タッチ位置がタッチセンサ50によって検知され、検知結果がCPU26に与えられる。
CPU26は、顔検出レジスタRGSTdtに登録された1または2以上の顔画像のうち主要顔画像以外のいずれかとタッチ位置とが一致する場合は、操作者によってタッチ位置の顔画像が主要顔画像に指定されたものと判断する。したがってCPU26は、主要顔画像レジスタRGSTmaの記述を指定顔画像の顔情報に更新する。タッチ操作によって主要顔画像が更新されたとき、CPU26は、更新後の主要顔画像に注目した特定AF処理を実行する。特定AF処理は次の要領で実行される。
CPU26は、現在のAF処理の基準の距離(以下、“AF距離”と称する)Lsを算出する。直前のAF処理は更新前の主要顔画像に注目して実行されたので、AF距離Lsは、ディジタルビデオカメラ10および更新前の主要顔画像の人物の距離に相当する。また、AF距離Lsは、フォーカスレンズ12の現在の位置に基づいて算出可能である。
CPU26は次に、主要顔画像レジスタRGSTmaから更新後の主要顔画像のサイズを読み出す。更新後の主要顔画像のサイズは、ディジタルビデオカメラ10および更新後の主要顔画像の人物の距離に対して反比例の関係にある。すなわち、距離が大きくなるほどサイズが小さくなり、距離が小さくなるほどサイズが大きくなる。このような更新後の主要顔画像のサイズに基づいて、CPU26は、ディジタルビデオカメラ10および更新後の主要顔画像の人物の距離に相当する目標AF距離Leを算出する。
特定AF処理においてCPU26は、現在のAF距離Lsから目標AF距離LeへのAF距離の変更(=フォーカスレンズ12の移動)を4段階に分けて実行する。AF距離は、“L1”,“L2”,“L3”,および“Le”の順に変更される。CPU26はまた、AF距離が1段階変更される毎に被写界深度を変更(=絞りユニット14の絞り量の調整)する。被写界深度は、“D1”,“D2”,“D3”,および“Db”の順に変更される。
AF距離L1は、現在のAF距離Lsおよび目標AF距離Leに基づいて、以下の数1に示す式で求めることができる。
Figure 2012247533
被写界深度D1は、現在のAF距離Ls,目標AF距離Le,および被写界深度Dbに基づいて、以下の数2に示す式で求めることができる。
Figure 2012247533
AF距離L2は、現在のAF距離Lsおよび目標AF距離Leに基づいて、以下の数3に示す式で求めることができる。
Figure 2012247533
被写界深度D2は、現在のAF距離Ls,目標AF距離Le,および被写界深度Dbに基づいて、以下の数4に示す式で求めることができる。
Figure 2012247533
AF距離L3は、現在のAF距離Lsおよび目標AF距離Leに基づいて、以下の数5に示す式で求めることができる。
Figure 2012247533
被写界深度D3は、現在のAF距離Ls,目標AF距離Le,および被写界深度Dbに基づいて、以下の数6に示す式で求めることができる。
Figure 2012247533
このようにして求められたAF距離L1,L2,およびL3ならびに被写界深度D1,D2,およびD3の各々は、特定AFテーブルに設定される。なお、被写界深度D3は被写界深度D1と等しい。
ここで、特定AFテーブルTBLは、特定AF処理の各段階におけるAF距離の変更値および被写界深度の変更値を記述したテーブルに相当する。特定AFテーブルTBLは、例えば図11に示すように構成される。なお、特定AFテーブルはフラッシュメモリ44に保存される。
人物HM1およびHM2の各々の顔が図12(A)に示す例のように撮像面に捉えられたとき、図12(B)を参照して、上述のように、AF距離は“Ls”に設定され、被写界深度は“Db”に設定される。このとき、人物HM1の顔画像が主要顔画像とされているので、主要顔枠MFが上述のように、人物HM1の顔画像を囲うようにLCDモニタ38に表示される。
この状態でタッチ操作によって人物HM2の顔画像に主要顔画像が更新されると、図13(A)を参照して、主要顔枠MFが人物HM2の顔画像を囲うようにLCDモニタ38に表示される。主要顔画像が更新されるとまた、CPU26は特定AF処理を実行する。特定AF処理においてCPU26は、特定AFテーブルを参照して、フォーカスレンズ12を移動させ、“Ls”よりも大きい“L1”にAF距離を設定する(図13(B)参照)。CPU26はまた、絞りユニット14の絞り量を調整して、“Db”よりも深い“D1”に被写界深度を設定する(図13(B)参照)。
この結果、図13(A)を参照して、人物HM1を基準とした“Ls”よりも大きい“L1”へとAF距離が変更される一方、“Db”よりも深い“D1”に被写界深度が変更されるので、人物HM1の顔画像について大幅な鮮鋭度の低下は生じない。
CPU26は次に、特定AFテーブルを参照して、フォーカスレンズ12を移動させ、“L1”よりも大きい“L2”にAF距離を設定する(図14(B)参照)。CPU26はまた、絞りユニット14の絞り量を調整して、“D1”よりも深い“D2”に被写界深度を設定する(図14(B)参照)。
この結果、図14(A)を参照して、“L1”よりも大きい“L2”へとAF距離が変更される一方、“D1”よりも深い“D2”に被写界深度が変更されるので、人物HM1の顔画像について大幅な鮮鋭度の低下は生じない。また、人物HM2を基準とした“Le”に近い“L2”にAF距離が変更され、かつ、“D1”よりも深い“D2”に被写界深度が変更されるので、人物HM2の顔画像の鮮鋭度が向上する。
CPU26は次に、特定AFテーブルを参照して、フォーカスレンズ12を移動させ、“L2”よりも大きい“L3”にAF距離を設定する(図15(B)参照)。CPU26はまた、絞りユニット14の絞り量を調整して、“D2”よりも浅い“D3”に被写界深度を設定する(図15(B)参照)。
この結果、図15(A)を参照して、人物HM1の顔画像の鮮鋭度が低下する一方、人物HM2の顔画像の鮮鋭度が向上する。
CPU26は次に、フォーカスレンズ12を移動させ、目標AF距離LeにAF距離を設定する(図16(B)参照)。CPU26はまた、絞りユニット14の絞り量を調整して、“D3”よりも浅い“Db”に被写界深度を設定する(図16(B)参照)。
この結果、図16(A)を参照して、人物HM1の顔画像の鮮鋭度が低下する一方、人物HM2の顔画像の鮮鋭度が向上する。
特定AF処理が完了すると、AE/AF制御タスクの下でCPU26は、更新後の主要顔画像に注目したAE処理を実行する。この結果、スルー画像または記録画像の明るさが、更新後の主要顔画像に注目した明るさに調整される。
CPU26は、図17に示す撮像タスク,図18に示す顔検出タスク,および図21〜図22に示すAE/AF制御タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
図17を参照して、ステップS1では動画取り込み処理を実行する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。ステップS3では顔検出タスクを起動し、ステップS5ではAE/AF制御タスクを起動する。
ステップS7では、顔検出レジスタRGSTdtおよび主要顔画像レジスタRGSTmaの登録内容を参照して、顔枠GFおよび主要顔枠MFの各々のLCDモニタ38への表示を更新する。
ステップS9ではキー入力装置28に向けて記録開始操作が行われたか否かを判別し、判別結果がNOであればステップS13に進む一方、判別結果がYESであればステップS11でMP4コーデック46およびI/F40を起動して記録処理を開始する。この結果、記録媒体42に作成された画像ファイルへのMP4データの書き込みが開始される。ステップS11の処理が完了すると、ステップS7に戻る。
ステップS13ではキー入力装置28に向けて記録終了操作が行われたか否かを判別し、判別結果がNOであればステップS7に戻る一方、判別結果がYESであればステップ15でMP4コーデック46およびI/F40を停止して記録処理を終了する。この結果、記録媒体42に作成された画像ファイルへのMP4データの書き込みが終了する。ステップS15の処理が完了すると、ステップS7に戻る。
図18を参照して、ステップS21ではフラグFLG_fを“0”に初期設定し、垂直同期信号Vsyncが発生したか否かをステップS23で繰り返し判別する。判別結果がNOからYESに更新されると、ステップS25で顔検出処理を実行する。
顔検出処理の完了後、顔検出レジスタRGSTdtに顔情報の登録があるか否かをステップS27で判別し、判別結果がNOであればステップS21に戻る一方、判別結果がYESであればステップS29に進む。
ステップS29では人物の顔を発見したことを表明するべくフラグFLG_fを“1”に設定し、その後にステップS23に戻る。
ステップS25の顔検出処理は、図19〜図20に示すサブルーチンに従って実行される。ステップS31では、顔検出レジスタRGSTdtを初期化すべく登録内容をクリアする。
ステップS33では評価エリアEVAの全域を探索エリアとして設定する。ステップS35では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小サイズSZminを“20”に設定する。
ステップS37では顔検出枠FDのサイズを“FSZmax”に設定し、ステップS39では顔検出枠FDを探索エリアの左上位置に配置する。ステップS41では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された探索画像データの特徴量を算出する。
ステップS43では変数Nを“1”に設定し、ステップS41で算出された特徴量と辞書番号がNである顔辞書FDCの辞書画像の特徴量とをステップS45で照合する。照合の結果、閾値THを超える照合度が得られたか否かをステップS47で判別し、判別結果がNOであればステップS51に進む一方、判別結果がYESであればステップS49の処理を経てステップS51に進む。
ステップS49では、現時点の顔検出枠FDの位置およびサイズを顔情報として顔検出レジスタRGSTdtに登録する。
ステップS51では変数Nをインクリメントし、変数Nが“5”を超えたか否かをステップS53で判別する。判別結果がNOであればステップS45に戻る一方、判別結果がYESであれば、顔検出枠FDが探索エリアの右下位置に到達したか否かをステップS55で判別する。
ステップS55の判別結果がNOであれば、ステップS57で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS41に戻る。ステップS55の判別結果がYESであれば、顔検出枠FDのサイズが“FSZmin”以下であるか否かをステップS59で判別する。ステップS59の判別結果がNOであれば、ステップS61で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS63で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS41に戻る。ステップS59の判別結果がYESであれば、上階層のルーチンに復帰する。
図21を参照して、ステップS71ではフラグFLG_fが“1”に設定されているか否かを判別し、判別結果がYESであればステップS81に進む一方、判別結果がNOであればステップS73に進む。
ステップS73では、主要顔画像レジスタRGSTmaの登録内容をクリアする。ステップS75ではシーン中央に注目したAF処理を実行する。この結果、シーン中央に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像の鮮鋭度が継続的に向上する。
ステップS77では、絞りユニット14の絞り量の調整をドライバ18bに命令し、既定の被写界深度のうち最も深い“Da”に被写界深度を設定する。
ステップS79ではシーン全体を考慮したAE処理を実行する。この結果、スルー画像または記録画像の明るさが、シーン全体を考慮した明るさに調整される。ステップS79の処理が完了すると、ステップS71に戻る。
ステップS81では主要顔画像レジスタRGSTmaに主要顔画像の登録があるか否かを判別し、判別結果がNOであればステップS87に進む一方、判別結果がYESであればステップS83に進む。
ステップS83では、顔検出レジスタRGSTdtを参照して、主要顔画像周辺の既定の範囲ARに顔画像が存在するか否かを判別する。判別結果がNOであればステップS87に進む一方、判別結果がYESであればステップS85で主要顔画像レジスタRGSTmaの記述を更新する。ステップS85の処理が完了するとステップS89に進む。
ステップS87では、顔検出レジスタRGSTdtに登録された最大サイズの顔画像の中からシーン中央に最も近い顔画像を主要顔画像に決定する。主要顔画像とされた顔画像の位置およびサイズは、主要顔画像レジスタRGSTmaに登録される。ステップS87の処理が完了するとステップS89に進む。
ステップS89では主要顔画像に注目したAF処理を実行する。この結果、主要顔画像に注目した合焦点にフォーカスレンズ12が配置され、スルー画像または記録画像における主要顔画像の鮮鋭度が向上する。ステップS91では、絞りユニット14の絞り量の調整をドライバ18bに命令し、既定の被写界深度のうち最も浅い“Db”に被写界深度を設定する。
ステップS93では、LCDモニタ38に表示された1または2以上の顔画像のうち主要顔画像以外のいずれかに対するタッチ操作が行われたか否かを判別する。判別結果がNOであればステップS99に進む一方、判別結果がYESであればステップS95およびステップS97の処理を経てステップS99に進む。
ステップS95では、タッチ対象の顔画像を主要顔画像に決定し、主要顔画像レジスタRGSTmaの記述をタッチ対象の顔情報に更新する。ステップS97では更新後の主要顔画像に注目した特定AF処理を実行する。
ステップS99では、主要顔画像に注目したAE処理を実行する。この結果、スルー画像または記録画像の明るさが、主要顔画像に注目した明るさに調整される。ステップS99の処理が完了するとステップS71に戻る。
ステップS97の特定AF処理は、図23〜図24に示すサブルーチンに従って実行される。ステップS101では、フォーカスレンズ12の現在の位置を参照して、現在のAF距離Lsを算出する。ステップS103では主要顔画像レジスタRGSTmaから主要顔画像のサイズを読み出し、読み出された主要顔画像のサイズに基づいて、ステップS105で目標AF距離Leを算出する。
ステップS107では、現在のAF距離Ls,目標AF距離Le,および被写界深度Dbに基づいて、AF距離“L1”,“L2”,および“L3”ならびに被写界深度“D1”,“D2”,および“D3”の各々を求めて、特定AFテーブルを設定する。
ステップS109では変数Pを“1”に設定し、ステップS111では、特定AFテーブルに設定されたP番目のAF距離に基づいて、フォーカスレンズ12を移動する。ステップS113では、特定AFテーブルに設定されたP番目の被写界深度に基づいて、絞りユニット14の絞り量を調整する。
ステップS115ではタイマ値を50ミリ秒としてタイマ26tのリセット&スタートを実行し、ステップS117ではタイマ26tにタイムアウトが発生したか否かを繰り返し判別する。判別結果がNOからYESに更新されると、ステップS119で変数Pをインクリメントする。
ステップS121では変数Pが“3”を超えたか否かを判別し、判別結果がNOであればステップS111に戻り、判別結果がYESであればステップS123に進む。
ステップS123では、目標AF距離Leに基づいてフォーカスレンズ12を移動する。ステップS125では、絞りユニット14の絞り量の調整をドライバ18bに命令し、既定の被写界深度のうち最も浅い“Db”に被写界深度を設定する。ステップS125の処理が完了すると、上階層のルーチンに復帰する。
以上の説明から分かるように、イメージセンサ16は光学系を通してシーンを捉える。CPU26は、被写体距離を指定距離に調整し、調整の完了に対応して被写界深度を既定深度に調整する。タッチセンサ50およびCPU26は、指定距離の大きさを変更する変更操作を受け付ける。CPU26はまた、変更操作に応答して被写界深度を既定深度よりも大きい拡大深度に変更する。
被写体距離の指定の大きさを変更する操作に応答して、被写界深度が既定深度よりも大きい拡大深度に変更される。
したがって、被写体距離の調整前よりも被写界深度が大きい深度に設定されるので、被写体距離が大きく変更される場合であっても、被写体距離の変更に伴うぼけを減少させ、撮像手段から出力される画像の品質を向上させることができる。
なお、この実施例では、特定AF処理において、ディジタルビデオカメラ10および更新後の主要顔画像の人物の距離に相当する目標AF距離Leを主要顔画像のサイズに基づいて算出し、目標AF距離LeにAF距離を変更するようにした。しかし、このような変更処理の完了後に調整処理を実行し、AF距離を高精度に調整するようにしてもよい。
この場合、図24のステップS125の処理の完了後に図25のステップS131を実行し、ステップS131の処理が完了すると上階層のルーチンに復帰するようにすればよい。
ステップS131では以下の要領でAF調整処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、主要顔画像レジスタRGSTmaに登録された位置およびサイズに対応するAF評価値を抽出する。CPU26はまた、抽出された一部のAF評価値に基づいてフォーカスレンズ12の位置を調整する。
また、この実施例では、特定AF処理においてAF距離の変更を4段階に分けて実行したが、2段階以上の他の段階に分けて実行してもよい。
また、この実施例では、AF処理またはAF距離の変更の完了後に、絞りユニット14の絞り量を調整して被写界深度を変更するようにした。しかし、これらの処理の完了前またはこれらの処理の開始前に被写界深度を変更するようにしてもよい。
また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図26に示す要領でディジタルビデオカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
また、この実施例では、CPU26によって実行される処理を、図17に示す撮像タスク,図18に示す顔検出タスク,および図21〜図22に示すAE/AF制御タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
また、この実施例では、ディジタルビデオカメラを用いて説明したが、本発明は、ディジタルスチルカメラ,携帯電話端末またはスマートフォンなどにも適用することができる。
10 …ディジタルビデオカメラ
12 …フォーカスレンズ
14 …絞りユニット
16 …イメージセンサ
26 …CPU
32 …SDRAM
38 …LCDモニタ
50 …タッチセンサ

Claims (11)

  1. 光学系を通してシーンを捉える撮像手段、
    被写体距離を指定距離に調整する距離調整手段、
    前記距離調整手段の調整の完了に対応して被写界深度を既定深度に調整する深度調整手段、
    前記指定距離の大きさを変更する変更操作を受け付ける受け付け手段、
    前記変更操作に応答して前記被写界深度を前記既定深度よりも大きい拡大深度に変更する変更手段を備える、電子カメラ。
  2. 前記変更操作を受け付けた時点の前記被写体距離と前記変更操作によって指定された距離との差分に応じて異なるように前記拡大深度の大きさを設定する設定手段をさらに備える、請求項1記載の電子カメラ。
  3. 前記距離調整手段は、前記変更操作に応答して現在距離と前記指定距離との間の距離に前記被写体距離を調整する第1距離調整手段、および前記第1距離調整手段の調整後に前記被写体距離を前記指定距離に調整する第2距離調整手段を含み、
    前記変更手段は前記第1距離調整手段によって調整された前記被写体距離の長さに応じて異なるように前記拡大深度の大きさを調整する、請求項1または2記載の電子カメラ。
  4. 前記深度調整手段は前記第2距離調整手段の調整処理に関連して前記被写界深度を前記既定深度に調整する既定深度調整手段を含む、請求項3記載の電子カメラ。
  5. 前記距離調整手段は前記現在距離と前記指定距離との間に存在する複数の距離の各々を前記第1距離調整手段によって注目される距離として指定する距離指定手段をさらに含み、
    前記変更手段は前記距離指定手段の指定毎に前記拡大深度の大きさを調整する、請求項3または4記載の電子カメラ。
  6. 前記変更操作は前記シーンに存在する所望の被写体を指定する操作に相当し、
    前記変更操作によって指定された被写体までの距離を前記指定距離として算出する算出手段をさらに備える、請求項1ないし5のいずれかに記載の電子カメラ。
  7. 前記変更操作によって指定される被写体は人物の顔に相当し、
    前記算出手段は前記変更操作によって指定された被写体を表す画像のサイズに基づいて算出処理を実行する、請求項6記載の電子カメラ。
  8. 光学系を通してシーンを捉える撮像手段を備える電子カメラのプロセッサに、
    被写体距離を指定距離に調整する距離調整ステップ、
    前記距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ、
    前記指定距離の大きさを変更する変更操作を受け付ける受け付けステップ、
    前記変更操作に応答して前記被写界深度を前記既定深度よりも大きい拡大深度に変更する変更ステップを実行させるための、撮像制御プログラム。
  9. 光学系を通してシーンを捉える撮像手段を備える電子カメラによって実行される撮像制御方法であって、
    被写体距離を指定距離に調整する距離調整ステップ、
    前記距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ、
    前記指定距離の大きさを変更する変更操作を受け付ける受け付けステップ、
    前記変更操作に応答して前記被写界深度を前記既定深度よりも大きい拡大深度に変更する変更ステップを備える、撮像制御方法。
  10. 光学系を通してシーンを捉える撮像手段、および
    メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
    被写体距離を指定距離に調整する距離調整ステップ、
    前記距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ、
    前記指定距離の大きさを変更する変更操作を受け付ける受け付けステップ、
    前記変更操作に応答して前記被写界深度を前記既定深度よりも大きい拡大深度に変更する変更ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
  11. 光学系を通してシーンを捉える撮像手段、
    外部制御プログラムを受信する受信手段、および
    前記受信手段によって受信された外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
    前記外部制御プログラムは、
    被写体距離を指定距離に調整する距離調整ステップ、
    前記距離調整ステップの調整の完了に対応して被写界深度を既定深度に調整する深度調整ステップ、
    前記指定距離の大きさを変更する変更操作を受け付ける受け付けステップ、
    前記変更操作に応答して前記被写界深度を前記既定深度よりも大きい拡大深度に変更する変更ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
JP2011117783A 2011-05-26 2011-05-26 電子カメラ Withdrawn JP2012247533A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011117783A JP2012247533A (ja) 2011-05-26 2011-05-26 電子カメラ
US13/463,297 US20120300035A1 (en) 2011-05-26 2012-05-03 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011117783A JP2012247533A (ja) 2011-05-26 2011-05-26 電子カメラ

Publications (1)

Publication Number Publication Date
JP2012247533A true JP2012247533A (ja) 2012-12-13

Family

ID=47218976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011117783A Withdrawn JP2012247533A (ja) 2011-05-26 2011-05-26 電子カメラ

Country Status (2)

Country Link
US (1) US20120300035A1 (ja)
JP (1) JP2012247533A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197179A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 焦点検出装置およびその制御方法
CN106249508A (zh) * 2016-08-15 2016-12-21 广东欧珀移动通信有限公司 自动对焦方法和系统、拍摄装置
US10306131B2 (en) 2015-04-03 2019-05-28 Canon Kabushiki Kaisha Focus detection apparatus and control method therefor

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102130123B1 (ko) * 2013-10-31 2020-07-03 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법
JP6512810B2 (ja) * 2014-12-11 2019-05-15 キヤノン株式会社 撮像装置および制御方法とプログラム
CN106648260B (zh) * 2017-02-13 2020-08-07 北京安云世纪科技有限公司 一种调整触控标识对象间距的方法及装置
WO2023285873A1 (en) * 2021-07-15 2023-01-19 Weta Digital Limited Smoothly changing a focus of a camera between multiple target objects
WO2023285871A1 (en) * 2021-07-15 2023-01-19 Weta Digital Limited Smoothly changing a focus of a camera between multiple target objects
US11232579B1 (en) 2021-07-15 2022-01-25 Weta Digital Ltd. Smoothly changing a focus of a camera between multiple target objects
WO2023285872A1 (en) * 2021-07-15 2023-01-19 Weta Digital Limited Smoothly changing a focus of a camera between multiple target objects

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7733412B2 (en) * 2004-06-03 2010-06-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197179A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 焦点検出装置およびその制御方法
US10306131B2 (en) 2015-04-03 2019-05-28 Canon Kabushiki Kaisha Focus detection apparatus and control method therefor
CN106249508A (zh) * 2016-08-15 2016-12-21 广东欧珀移动通信有限公司 自动对焦方法和系统、拍摄装置
CN106249508B (zh) * 2016-08-15 2019-04-19 Oppo广东移动通信有限公司 自动对焦方法和系统、拍摄装置

Also Published As

Publication number Publication date
US20120300035A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
US20220337759A1 (en) Image processing device, method of processing image, image processing program, and imaging device
JP2012247533A (ja) 電子カメラ
US10021307B2 (en) Processing apparatus for camera shake correction
JP6472183B2 (ja) 画像処理装置、その制御方法、プログラム
US20100209093A1 (en) Focus adjusting apparatus and focus adjusting method
US20060092307A1 (en) Image pickup apparatus for photographing desired area in image with high image quality and control method for controlling the apparatus
JP5370555B2 (ja) 撮像装置、撮像方法及びプログラム
CN108289170B (zh) 能够检测计量区域的拍照装置、方法及计算机可读介质
JP5485712B2 (ja) 電子カメラ
US9160928B2 (en) Image capture apparatus sensing image capturing condition, image processing method, and storage medium
JP5865120B2 (ja) 電子カメラ
US20120188437A1 (en) Electronic camera
JP6172973B2 (ja) 画像処理装置
JP2010021916A (ja) 画像処理装置
US20120075495A1 (en) Electronic camera
JP5785034B2 (ja) 電子カメラ
JP2010102596A (ja) 画像処理装置
US20210306543A1 (en) Information processing apparatus, image capturing apparatus, method, and storage medium
JP2011221337A (ja) 電子カメラ
JP2013162225A (ja) 追尾装置及び撮像装置、撮像装置に用いる追尾方法
JP2011078041A (ja) 画像処理装置および電子カメラ
JP2012217106A (ja) 画像処理装置
US20230162707A1 (en) Imaging apparatus, method of controlling imaging apparatus, and program
WO2013157413A1 (ja) 電子カメラ
JP2012244278A (ja) 電子カメラ

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805