JP2017103601A - 焦点検出装置およびカメラ - Google Patents

焦点検出装置およびカメラ Download PDF

Info

Publication number
JP2017103601A
JP2017103601A JP2015235019A JP2015235019A JP2017103601A JP 2017103601 A JP2017103601 A JP 2017103601A JP 2015235019 A JP2015235019 A JP 2015235019A JP 2015235019 A JP2015235019 A JP 2015235019A JP 2017103601 A JP2017103601 A JP 2017103601A
Authority
JP
Japan
Prior art keywords
focus
area
subject
focus detection
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015235019A
Other languages
English (en)
Other versions
JP6825203B2 (ja
Inventor
直之 大西
Naoyuki Onishi
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015235019A priority Critical patent/JP6825203B2/ja
Publication of JP2017103601A publication Critical patent/JP2017103601A/ja
Application granted granted Critical
Publication of JP6825203B2 publication Critical patent/JP6825203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】適切に焦点調節を行うこと。
【解決手段】焦点検出装置は、画像を繰り返し取得する画像取得部16によって時系列に取得される画像から、第1の追尾対象の位置を追尾する第1追尾部19と、画像から、第1の追尾対象と異なる第2の追尾対象の位置を追尾する第2追尾部19と、画面内に設けられた複数の焦点検出位置に対してそれぞれ焦点調節状態を検出する焦点検出部10と、第1位置に対応する焦点検出位置で焦点検出部10が検出した第1の焦点調節状態と、第2位置に対応する焦点検出位置で焦点検出部10が検出した第2の焦点調節状態との差に基づいて、焦点調節に用いる焦点検出位置を決める焦点調節制御部11と、を備える。
【選択図】図2

Description

本発明は、焦点検出装置およびカメラに関する。
移動する被写体の動きに追従して、撮影画面におけるオートフォーカス(AF)エリアの位置を移動させる技術が知られている(特許文献1参照)。
この技術では、当初の追尾対象と異なる追尾対象が選ばれた場合に、焦点調節状態が大きく変化するおそれがあった。
特開2009−229587号公報
本発明による焦点検出装置は、画像を繰り返し取得する画像取得部によって時系列に取得される画像から、第1の追尾対象の位置を追尾する第1追尾部と、画像から、第1の追尾対象と異なる第2の追尾対象の位置を追尾する第2追尾部と、画面内に設けられた複数の焦点検出位置に対してそれぞれ焦点調節状態を検出する焦点検出部と、第1の追尾対象の位置に対応する焦点検出位置で焦点検出部が検出した第1の焦点調節状態と、第2の追尾対象の位置に対応する焦点検出位置で焦点検出部が検出した第2の焦点調節状態との差に基づいて、焦点調節に用いる焦点検出位置を決める焦点調節制御部と、を備える。
撮影画面内に設定されるフォーカスエリアを示す図である。 カメラの要部を説明するブロック図である。 カメラ制御部がAF動作時に実行する処理の流れを説明するフローチャートである。 カメラ制御部がAF動作時に実行する処理の流れを説明するフローチャートである。 カメラ制御部がAF動作時に実行する処理の流れを説明するフローチャートである。 カメラ制御部がAF動作時に実行する処理の流れを説明するフローチャートである。 カメラ制御部がAF動作時に実行する処理の流れを説明するフローチャートである。
一実施の形態に係る焦点検出装置は、例えば、一眼レフタイプのカメラ300(図2)に搭載される。
<AF動作の概要>
はじめに、図1を参照して本実施形態によるAF(自動焦点調節)動作の概要を説明する。図1は、カメラ300において撮影画面50内に設定されるフォーカスエリアaを例示する図である。図1において、撮影画面50の略全域にわたって100点のフォーカスエリアa(焦点検出エリア、測距点、オートフォーカス(AF)ポイントとも称される)が設けられている。
なお、撮影画面50においてフォーカスエリアaが配される位置および数は、図1に例示した態様に限定されるものではない。
焦点検出装置は、交換レンズ200(図2)による焦点調節状態(ピントずれ量)を検出するための一対の光束による一対の被写体像の像ズレ量(位相差)を、フォーカスエリアaごとに検出する。そして、例えば、複数のフォーカスエリアaの中から選んだ一つのフォーカスエリアaに対応する被写体に焦点を合わせるようにAF動作を行う。
AF動作によって焦点を合わせる対象の被写体は、通常、ユーザー操作によって指定される。すなわち、焦点検出装置は、ユーザー操作によって指定された選択エリア51の位置に対応するフォーカスエリアaを選ぶ。ユーザーが人物の胴部分を選択エリア51として指定した場合、焦点検出装置は、人物の胴部分をもとに第1テンプレート画像を設定し、撮影画面50内を移動する人物の胴部分を追尾する。そして、第1テンプレート画像を用いた追尾処理によって検出した人物の胴部分の位置に対応するフォーカスエリアaにおいて、一対の被写体像の像ズレ量を検出する。
焦点検出装置はさらに、所定の条件下(例えば、選択エリア51の上側に人物の顔が存在する場合)において、人物の顔の位置に対応するフォーカスエリアaを選ぶ。すなわち、人物の顔領域52をもとに第2テンプレート画像を設定し、撮影画面50内を移動する人物の顔を追尾する。そして、第2テンプレート画像を用いた追尾処理によって検出した人物の顔の位置に対応するフォーカスエリアaにおいて、一対の被写体像の像ズレ量を検出する。つまり、所定の条件下においては、焦点検出装置が人物の胴部分および顔をそれぞれ追尾し、人物の胴部分と顔とを対象にそれぞれ一対の被写体像の像ズレ量を検出する。
そして、焦点検出装置は、人物の胴部分に基づいた一対の被写体像の像ズレ量と、人物の顔に基づいた一対の被写体像の像ズレ量とが一致する場合、あるいは、略一致するとみなせるほどに両者が近似している場合に、第2テンプレート画像を用いた追尾処理によって検出した人物の顔を対象に焦点を合わせるようにAF動作を行う。これにより、例えばユーザーが、人物の顔領域52にピントを合わせたい場面で選択エリア51として人物の胴部分を選んだとしても、人物の顔を焦点調節の対象とする。詳述すると、焦点検出装置は、人物の胴部分と顔とをそれぞれ追尾した上で、追尾処理によって検出した人物の顔を焦点調節の対象にする。同じ人物の胴部分と顔は、一対の被写体像の像ズレ量が一致するという考えに基づく。
以上説明したカメラ300の機能は、図3〜図7を参照して後述するフローチャートで表した処理手順を実行することによって実現される。
<カメラの説明>
上述したAF動作を行うカメラ300について、さらに詳細に説明する。図2は、カメラ300の要部を説明するブロック図である。図2において、カメラ300は、カメラボディ100と、交換レンズ200とによって構成される。交換レンズ200は、カメラボディ100の不図示のマウント部に対して着脱可能である。
交換レンズ200には、撮像光学系が設けられている。撮像光学系は、複数のレンズ1a、1b、1cで構成されるレンズ群1と、絞り20とで構成される。絞り20は、その開口径が調節されることにより、撮像光学系を通過する光束を制限する。レンズ群1は、カメラボディ100側の撮像素子6に被写体像を結像させる。レンズ群1のうちフォーカスレンズ1bは、交換レンズ200の光軸L1の方向に進退可能に構成されている。フォーカスレンズ1bは、エンコーダ14によってその位置が検出されつつ、カメラボディ100側のレンズ駆動制御部13からの駆動信号を受けた不図示の駆動モータによって進退駆動される。
エンコーダ14によって検出されたフォーカスレンズ1bの位置情報は、レンズ駆動制御部13を介してレンズ駆動量演算部12へ送出される。そして、この位置情報に基づいてレンズ駆動量演算部12で演算されたフォーカスレンズ1bの駆動量Δdが、レンズ駆動量演算部12からレンズ駆動制御部13へと送出される。レンズ駆動制御部13は、駆動量Δdに基づいてフォーカスレンズ1bを駆動するための駆動信号を出力する。
カメラボディ100には、メインミラー2と、サブミラー7と、撮像素子6と、位相差AF検出部8と、ファインダースクリーン3と、ペンタプリズム4と、接眼レンズ5と、測光用レンズ15と、測光センサ16とが設けられている。メインミラー2およびザブミラー7は、いわゆるクイックリターンミラーを構成する。
カメラボディ100にはさらに、カメラ制御部18および操作部材17が備えられる。カメラ制御部18は、CPUやメモリ等によって構成されており、カメラ300の動作制御を行う。また、カメラ制御部18は、AF−CCD制御部9と、デフォーカス演算部10と、フォーカスエリア位置決定部11と、レンズ駆動量演算部12と、レンズ駆動制御部13と、被写体追尾演算部19とを含む。
操作部材17は、カメラ300の操作を行うための各種スイッチ類によって構成される。例えば、カメラ300の動作モードを選択するためのモード選択スイッチ、上記選択エリア51(図1)を選択するためのエリア選択スイッチ、AF動作の開始および撮影を指示するためのレリーズボタンなどが含まれる。
撮像素子6は、例えばCMOSイメージセンサ等によって構成される。撮像素子6の画素位置には、赤(R)、緑(G)および青(B)のカラーフィルタが所定の配列パターンで設けられている。撮像素子6は、交換レンズ200の撮像光学系によって結像されている被写体像を撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を出力する。
メインミラー2およびサブミラー7は、光軸L1に沿って交換レンズ200から撮像素子6へ至る光路上に介在する観察位置(図2に示す状態)と、光路の外の退避位置との間を回動可能に設けられる。メインミラー2は、観察位置において入射光束を上方(ファインダースクリーン3)へ反射する。メインミラー2の一部には、入射光束の一部を透過する半透過領域が形成されている。サブミラー7は、メインミラー2の半透過領域を透過した入射光束を、位相差AF検出部8へ向けて反射する。
ファインダースクリーン3、ペンタプリズム4、および接眼レンズ5は、ファインダー光学系を構成する。メインミラー2を上方へ反射した光束による像は、ファインダースクリーン3に結像される。ファインダースクリーン3は、撮像素子6と光学的に等価な位置に設けられている。ユーザーは、ファインダースクリーン3上の被写体像をファインダー接眼部30から観察する。ペンタプリズム4および接眼レンズ5により、被写体像は正立像として観察される。
測光用レンズ15および測光センサ16は、測光部を構成する。測光用レンズ15は、ファインダースクリーン3に結像した被写体像を、測光センサ16に再結像させる。測光センサ16は、撮像素子6と同様の構成を備えており、各画素に対応する色情報や輝度情報に応じた画像信号を出力する。
カメラ制御部18は、測光センサ16からの画像信号に基づいて結像面の明るさを検出し、露出を決定する(自動露出制御)。また、カメラ制御部18の被写体追尾演算部19は、測光センサ16が所定のフレームレート(例えば60fps)で撮像を繰り返すことによって得られる画像信号に基づいて、撮影画面内に存在する特定の被写体の位置を追尾する被写体追尾処理を行う。
ユーザーがレリーズボタン(不図示)を全押し操作すると、メインミラー2およびサブミラー7が回動して光路外の退避位置へ退避するとともに、不図示のシャッターが開かれる。これにより、被写体からの光束は全て撮像素子6へ導かれる。撮像素子6で被写体像が光電変換されると、撮像素子6から出力された画像信号に基づく画像データが、カメラ制御部18によって不図示のメモリに保存される。
位相差AF検出部8は、図1の各フォーカスエリアaに対応してそれぞれ配置された複数のラインセンサを有する。各ラインセンサは、一対の光電変換素子アレイによって構成される。各ラインセンサには、交換レンズ200の異なる領域を通過して2つに分けられた一対の光束による一対の被写体像が結像される。各ラインセンサは、一対の被写体像を光電変換して、一対の被写体像の輝度分布に対応したAF用検知信号を出力する。各ラインセンサの電荷蓄積時間は、カメラ制御部18におけるAF−CCD制御部9によって制御される。
AF−CCD制御部9は、上記ラインセンサからAF用検知信号を読み出し、デフォーカス演算部10に出力する。デフォーカス演算部10は、AF用検知信号に基づいて、上記一対の光束による一対の被写体像の像ズレ量(位相差)を検出することにより、交換レンズ200の焦点調節状態を表すデフォーカス量をフォーカスエリアaごとに算出する。上記瞳分割位相差方式によるデフォーカス量演算は、カメラの分野において公知であるので詳細な説明は省略する。
フォーカスエリア位置決定部11は、デフォーカス演算部10によって算出されたデフォーカス量や、被写体追尾演算部19による被写体追尾処理の結果を用いて、交換レンズ200を最終的に合焦させるフォーカスエリア(以後、採用フォーカスエリアと呼ぶ)を決定する。
レンズ駆動量演算部12は、採用フォーカスエリアに対応する被写体部分にピントを合わせるため、上記フォーカスレンズ1bの駆動量Δdを演算する。デフォーカス演算部10によって算出された採用フォーカスエリアのデフォーカス量が、上記フォーカスレンズ1bの駆動量Δdに相当する。
レンズ駆動制御部13は、上記駆動量Δdに基づいて、交換レンズ200へ駆動信号を送出する。これにより、フォーカスレンズ1bが移動され、自動焦点調節が行われる。
カメラ制御部18は、図1の選択エリア51の設定を、ユーザー操作に基づいて以下のように行う。例えば、カメラ制御部18が初期設定位置として撮影画面50の中央に選択エリア51を設定する。カメラ制御部18は、操作部材17を構成するエリア選択スイッチ(例えば十字スイッチ)の操作方向(上下左右)へ、選択エリア51の位置を移動させる。選択エリア51の大きさは、例えば図1に例示したように、横3×縦3の9個のフォーカスエリアaを包含する大きさとする。
なお、十字スイッチの代わりにタッチパネルスイッチによって、エリア選択スイッチを構成しても構わない。
選択エリア51を設定したカメラ制御部18は、選択エリア51の設定位置および大きさ(範囲)を示すマーク(例えば、四角い枠)を、フォーカスエリアaを示すマークとともに、ファインダースクリーン3に重ねて設けられた不図示の液晶表示素子によって表示させる。選択エリア51およびフォーカスエリアaを示すマークが被写体像に重ねて重畳表示されることにより、ユーザーは、接眼部30から図1と同様の観察像を視認できる。
<フローチャートの説明>
カメラ制御部18がAF動作時に実行する処理の流れについて、図3〜図7に例示するフローチャートを参照して説明する。
<AFメイン処理>
カメラ制御部18は、上述したように選択エリア51を設定すると、図3による処理を起動させる。図3のステップS101において、カメラ制御部18は、上記レリーズボタンの半押し操作に連動する不図示の半押しスイッチSW1がオンしたか否かを判定する。カメラ制御部18は、半押しスイッチSW1のオンを検知した場合にステップS101を肯定判定してステップS102へ進み、半押しスイッチSW1のオンを検知しない場合には、ステップS101を否定判定して当該判定処理を繰り返す。
ステップS102において、カメラ制御部18は、被写体の追尾を行う追尾動作を開始済みか否かを判定する。カメラ制御部18は、被写体追尾動作を未だ開始していない場合に、ステップS102を否定判定してステップS103へ進む。カメラ制御部18は、被写体追尾動作を既に開始している場合は、ステップS102を肯定判定してステップS104へ進む。
ステップS103において、カメラ制御部18は、追尾制御のための初期処理を行ってステップS106へ進む。追尾制御初期設定処理の詳細については、図4を参照して後述する。
ステップS104において、カメラ制御部18は、顔追尾処理を行ってステップS105へ進む。顔追尾処理の詳細については、図5を参照して後述する。
ステップS105において、カメラ制御部18は、追尾演算処理を行ってステップS106へ進む。追尾演算処理の詳細については、図6を参照して後述する。
ステップS106において、カメラ制御部18は、AF−CCD制御部9によって位相差AF検出部8のラインセンサの蓄積時間およびゲインを制御し、ラインセンサに上記一対の被写体像を光電変換させてステップS107へ進む。
ステップS107において、カメラ制御部18(デフォーカス演算部10)は、主領域に含まれるフォーカスエリアaに対応するラインセンサから出力されたAF用検知信号に基づいてデフォーカス量演算を行う。主領域は、初回動作でユーザー操作に基づいて選択された選択エリア51、または後述する追尾演算処理を経て決定される被写体領域1もしくは被写体領域2をいう。本実施形態では、デフォーカス量の演算対象となるフォーカスエリアaは1点の場合もあるし、複数点の場合もある。
ステップS108において、カメラ制御部18は、演算対象の全てのフォーカスエリアaについてデフォーカス量演算が終了したか否かを判定する。カメラ制御部18は、デフォーカス量演算を終了した場合にステップS108を肯定判定してステップS109へ進む。カメラ制御部18は、デフォーカス量演算を終了していない場合はステップS108を否定判定してステップS107へ戻り、デフォーカス量演算を継続する。
ステップS109において、カメラ制御部18(フォーカスエリア位置決定部11)は、デフォーカス量演算を行ったフォーカスエリアaの中から最適な測距位置(採用フォーカスエリア)を決定するための採用エリア判定処理を行う。採用エリア判定処理の詳細については、図7を参照して後述する。
ステップS110において、カメラ制御部18は、採用エリア判定処理によって決定された採用フォーカスエリアの有無を判定する。採用フォーカスエリアがない場合とは、デフォーカス量の演算対象とした全てのフォーカスエリアaにおいて、(1)デフォーカス量が算出できなかった場合、または、(2)算出したデフォーカス量の値が適切でない場合である。
カメラ制御部18は、採用フォーカスエリアが存在する場合にステップS110を肯定判定してステップS111へ進み、採用フォーカスエリアが存在しない場合には、ステップS110を否定判定してステップS113へ進む。
ステップS111において、カメラ制御部18(レンズ駆動量演算部12)は、フォーカスレンズ1bの駆動量Δdを演算してステップS112へ進む。
なお、レンズ駆動量演算部12は、追尾対象の被写体が動いている場合は、合焦位置を予測して駆動量Δdを求めてもよい。その際、追尾対象が顔である場合は、その動きが、人が動ける速度に見合うかどうかを判定しながら、合焦位置の予測値を算出してもよい。
ステップS112において、カメラ制御部18(レンズ駆動制御部13)は、レンズ駆動量演算部12で演算した駆動量Δdに基づいて、交換レンズ200へ駆動信号を送出して図3による処理を終了する。これにより、フォーカスレンズ1bが合焦位置へ駆動される。
ステップS110を否定判定して進むステップS113において、カメラ制御部18は、初回の追尾動作か否かを判定する。カメラ制御部18は、被写体追尾動作が初回でない(被写体追尾動作を既に開始済み)場合、ステップS113を否定判定してステップS115へ進み、被写体追尾動作が初回の場合は、ステップS113を肯定判定してステップS114へ進む。
ステップS115へ進む場合は、ステップS113を否定判定している場合であり、被写体を追尾している状態である。カメラ制御部18は、ステップS115において主領域を拡大させる。例えば、主領域が当初横3×縦3の9個のフォーカスエリアaを包含する大きさを有する場合、フォーカスエリアaを主領域の上下左右にそれぞれ3個ずつ、合計12個増やして計21個のフォーカスエリアaを包含する大きさへと変更する。
ステップS116において、カメラ制御部18(デフォーカス演算部10)は、拡大後の主領域に含まれるフォーカスエリアaに対応するラインセンサから出力されたAF用検知信号に基づいて、デフォーカス量演算を行う。
ステップS117において、カメラ制御部18は、演算対象の全てのフォーカスエリアaについてデフォーカス量演算が終了したか否かを判定する。カメラ制御部18は、デフォーカス量演算を終了した場合にステップS117を肯定判定してステップS118へ進み、デフォーカス量演算を終了していない場合はステップS117を否定判定してステップS116へ戻り、デフォーカス量演算を継続する。
ステップS118において、カメラ制御部18(フォーカスエリア位置決定部11)は、デフォーカス量演算を行ったフォーカスエリアaの中から最適な測距位置(採用フォーカスエリア)を決定するための採用エリア判定処理を行う。採用エリア判定処理の詳細については、図7を参照して後述する。
ステップS119において、カメラ制御部18は、採用エリア判定処理によって決定された採用フォーカスエリアの有無を判定する。判定はステップS110の場合と同様である。
カメラ制御部18は、採用フォーカスエリアが存在する場合はステップS119を肯定判定してステップS111へ進み、採用フォーカスエリアが存在しない場合には、ステップS119を否定判定してステップS120へ進む。
ステップS120において、カメラ制御部18は、フォーカスレンズ1bの移動を停止させて図3による処理を終了する。採用フォーカスエリアを見つけることができないときは、フォーカスレンズ1bを駆動させないためである。この場合は、位相差AF検出部8で取得されたAF用検知信号に基づいた自動焦点調節を行うことができない。
ステップS113を肯定判定して進むステップS114において、カメラ制御部18は、スキャン動作を行わせて図3による処理を終了する。スキャン動作は、フォーカスレンズ1bを至近位置から無限遠位置まで動かしながら、デフォーカス演算部10によって、選択エリア51に含まれる複数のフォーカスエリアaにおけるデフォーカス量を演算させることをいう。
<追尾制御初期処理>
図4は、追尾制御初期処理の流れを説明するフローチャートである。図4のステップS201において、カメラ制御部18は、選択エリア51の位置情報(撮影画面50のどこに設定されているかを示す情報)を取得してステップS202へ進む。
ステップS202において、カメラ制御部18は、測光センサ16から出力された画像信号に基づいて、公知の顔検出処理を行ってステップS203へ進む。図1における顔領域52は、検出した顔を示している。
カメラ制御部18は、図2のファインダースクリーン3に重ねて設けられた不図示の液晶表示素子により、選択エリア51の設定位置、大きさを示すマーク、フォーカスエリアaを示すマークとともに、顔領域52を表示させるようにしてもよい。
また、顔検出処理は、ステップS201の前に行うようにしてもよい。
図4のステップS203において、カメラ制御部18は、選択エリア51の位置が、検出した顔の位置に相当するか否かを判定する。カメラ制御部18は、選択エリア51に検出した顔が含まれる場合、ステップS203を肯定判定してステップS214へ進む。本実施形態では、ステップS214へ進む場合にテンプレート画像を1つだけ設定する。1つだけ設定する理由は、選択エリア51に顔が含まれている場合、顔をもとに設定するテンプレート画像は選択エリア51内の被写体をもとに設定するテンプレート画像といえるからである。
ここで、顔領域52が選択エリア51の内側にすっぽり収まらなくても、顔領域52と選択エリア51との間で同じフォーカスエリアaを含んでいれば、ステップS203を肯定判定する。
一方、カメラ制御部18は、選択エリア51に検出した顔が含まれない場合、ステップS203を否定判定してステップS204へ進む。本実施形態では、ステップS204へ進む場合にテンプレート画像を2つ設定する。2つ設定する理由は、選択エリア51に顔が含まれていない場合、顔をもとに設定するテンプレート画像と、選択エリア51内の被写体をもとに設定するテンプレート画像とを別個に設けるためである。
ステップS204において、カメラ制御部18は、選択エリア51内の被写体の色情報を内部のメモリに記憶する。具体的には、測光センサ16から出力された画像信号のうち、選択エリア51に対応する画像信号が示す色成分情報を記憶してステップS205へ進む。
ステップS205において、カメラ制御部18は、測光センサ16から出力された画像信号から、上記記憶した色情報と同色の色情報を示す領域を検出する。同色の領域を検出する理由は、選択エリア51より大きな主要被写体が占める範囲を検出するためである。図1のように、人物の胴部分を主要被写体とする場合、主要被写体が占める範囲は選択エリア51より大きい。
図4のステップS206において、カメラ制御部18は、同色の色情報が占める範囲を被写体領域1(初期の被写体存在領域)としてステップS207へ進む。図1の例では、人物の胴部分の範囲を被写体領域1とする。
ステップS207において、カメラ制御部18は、ステップS206で決定した被写体領域1をもとに、上記第1テンプレート画像を設定してステップS208へ進む。第1テンプレート画像は、選択エリア51に存在する被写体(図1の例では人物の胴部分)の色情報を用いて設定されていることになる。
ステップS208において、カメラ制御部18(被写体追尾演算部19)は、被写体領域1を基準にして探索領域1を決定する。探索領域1は、入力したフレーム画像のうち追尾対象を探す範囲をいう。探索領域1を撮影画面50の全範囲としてもよいが、演算簡略化のため、本実施形態では被写体領域1を上下左右方向に4画素ずつ拡大した領域を探索領域1とする。
ステップS209において、カメラ制御部18(被写体追尾演算部19)は、ステップS202で検出した顔の位置が、被写体領域1の周囲にあるか否かを判定する。カメラ制御部18は、例えば顔の位置が被写体領域1の上側(重力方向と反対側)にある場合、ステップS209を肯定判定してステップS210へ進む。カメラ制御部18は、顔の位置が被写体領域1の周囲に存在しない(例えば被写体領域1から離れている)場合、ステップS209を否定判定して図4による処理を終了する。
ステップS210において、カメラ制御部18(被写体追尾演算部19)は、被写体色情報として、ステップS202で検出した顔の色情報を内部のメモリに記憶する。具体的には、測光センサ16から出力された画像信号のうち、顔に対応する画像信号が示す色成分情報を記憶してステップS211へ進む。
ステップS211において、カメラ制御部18は、顔を被写体領域2(初期の被写体存在領域)としてステップS212へ進む。図1の例では、顔領域52の範囲を被写体領域2とする。
図4のステップS212において、カメラ制御部18は、ステップS211で決定した被写体領域2をもとに、上記第2テンプレート画像を設定してステップS213へ進む。第2テンプレート画像は、顔(図1の例では顔領域52)の情報を用いて設定されていることになる。
ステップS213において、カメラ制御部18(被写体追尾演算部19)は、被写体領域2を基準にして探索領域2を決定し、図4による処理を終了する。探索領域2は、入力したフレーム画像のうち追尾対象を探す範囲をいう。探索領域1の場合と同様に、被写体領域2を上下左右方向に4画素ずつ拡大した領域を探索領域2とする。
ステップS214へ進むのは、ステップS203を肯定判定した場合(すなわち、人物の顔の位置に選択エリア51が設定されている場合)である。ステップS214において、カメラ制御部18(被写体追尾演算部19)は、被写体色情報として、ステップS202で検出した顔の色情報を内部のメモリに記憶し、ステップS215へ進む。
ステップS215において、カメラ制御部18は、顔を被写体領域1(初期の被写体存在領域)としてステップS216へ進む。ステップS216において、カメラ制御部18は、ステップS215で決定した被写体領域1をもとに第1テンプレート画像を設定してステップS217へ進む。第1テンプレート画像は、選択エリア51に存在する被写体の情報であって、かつ顔の情報を用いて設定されていることになる。
ステップS217において、カメラ制御部18(被写体追尾演算部19)は、被写体領域1を基準にして探索領域1を決定し、図4による処理を終了する。ステップS208やS213の場合と同様に、被写体領域1を上下左右方向に4画素ずつ拡大した領域を探索領域1とする。
以上のように、図4の追尾制御初期処理による動作は、概ね次のようである。すなわち、設定された選択エリア51の上側で人物の顔領域52が検出された場合において、選択エリア51内の胴部分(被写体領域1)をもとに第1テンプレート画像を設定するとともに、顔領域52(被写体領域2)をもとに第2テンプレート画像を設定する。また、設定された選択エリア51内で人物の顔領域52が検出された場合は、顔領域52(被写体領域1)をもとに第1テンプレート画像を設定する。
<顔追尾処理>
図5は、顔追尾処理の流れを説明するフローチャートである。図5の処理は、ステップS102を肯定判定している場合に行われる。図5のステップS301において、カメラ制御部18(被写体追尾演算部19)は、被写体領域1が顔に基づいているか否かを判定する。被写体追尾演算部19は、顔をもとに被写体領域1を設定した場合に、ステップS301を肯定判定して図5による処理を終了する。被写体追尾演算部19は、顔をもとに被写体領域1を設定していない場合には、ステップS301を否定判定してステップS302へ進む。
ステップS302において、カメラ制御部18(被写体追尾演算部19)は、被写体領域2の有無を判定する。被写体追尾演算部19は、被写体領域2を設定している場合に、ステップS302を肯定判定して図5による処理を終了する。ステップS302を肯定判定する場合は、既に顔の情報をもとに設定した第2テンプレート画像が存在するので、新たな顔検出が不要である。一方、被写体追尾演算部19は、被写体領域2を設定していない場合には、ステップS302を否定判定してステップS303へ進む。
ステップS303において、カメラ制御部18は、ステップS202の場合と同様に、測光センサ16から出力された画像信号に基づいて顔検出処理を行い、ステップS304へ進む。
ステップS304において、カメラ制御部18(被写体追尾演算部19)は、ステップS209の場合と同様に、ステップS303で検出した顔の位置が、被写体領域1の周囲にあるか否かを判定する。カメラ制御部18は、例えば顔の位置が被写体領域1の上側(重力方向と反対側)にある場合、ステップS304を肯定判定してステップS304Bへ進む。カメラ制御部18は、顔の位置が被写体領域1の周囲に存在しない(例えば被写体領域1から離れている)場合、ステップS304を否定判定して図5による処理を終了する。
ステップS304Bにおいて、カメラ制御部18(被写体追尾演算部19)は、被写体色情報として、ステップS303で検出した顔の色情報を内部のメモリに記憶する。被写体追尾演算部19は、測光センサ16から出力された画像信号のうち、顔に対応する画像信号が示す色成分情報を記憶してステップS305へ進む。
ステップS305において、カメラ制御部18は、顔を被写体領域2(初期の被写体存在領域)としてステップS306へ進む。図1の例では、顔領域52の範囲を被写体領域2とする。
図5のステップS306において、カメラ制御部18は、ステップS305で決定した被写体領域2をもとに第2テンプレート画像を設定してステップS307へ進む。第2テンプレート画像は顔の情報を用いて設定されていることになる。
ステップS307において、カメラ制御部18(被写体追尾演算部19)は、被写体領域2を基準にして探索領域2を決定し、図5による処理を終了する。上述した場合と同様に、被写体領域2を上下左右方向に4画素ずつ拡大した領域を探索領域2とする。
以上のように、図5の顔追尾処理による動作は、概ね次のようである。すなわち、被写体領域2が存在していない場合において、選択エリア51の上側で人物の顔領域52が検出された場合において、顔領域52を被写体領域2として、この被写体領域2をもとに第2テンプレート画像を設定する。
<追尾演算処理>
図6は、追尾演算処理の流れを説明するフローチャートである。図6の追尾演算処理は、図5の顔追尾処理後に、第1テンプレート画像および第2テンプレート画像の2つを用いてそれぞれ行う。図6のステップS401において、カメラ制御部18(被写体追尾演算部19)は、測光センサ16から出力された次フレームの画像信号において、上記探索領域1(または探索領域2)にターゲット画像を設定し、各画素位置において、第1テンプレート画像(または第2テンプレート画像)とターゲット画像との間で色相の差分演算を行う。ターゲット画像は、第1テンプレート画像のサイズと同サイズの探索領域1内の画像、または、第2テンプレート画像のサイズと同サイズの探索領域2内の画像、である。
ステップS402において、カメラ制御部18(被写体追尾演算部19)は、上記差分演算したターゲット画像の中で、色相差の合計値が最小となるターゲット画像について、色相差の合計値が所定の判定閾値内に入っているか否かを判定する。判定閾値は、固定値でもよいし、時間とともに変動する動的な値でもよい。
カメラ制御部18(被写体追尾演算部19)は、色相差の合計値が判定閾値内に入っている場合にステップS402を肯定判定してステップS403へ進み、色相差の合計値が判定閾値内に入っていない場合には、ステップS402を否定判定してステップS406へ進む。
ステップS403において、カメラ制御部18(被写体追尾演算部19)は、色相差の合計値が最小となるターゲット画像の位置を、新たな被写体領域1(または新たな被写体領域2)に決定してステップS404へ進む。被写体追尾演算部19は、第1テンプレート画像を用いて追尾演算している場合は、新たな被写体領域1(最新の被写体存在領域1)を決定し、第2テンプレート画像を用いて追尾演算している場合は、新たな被写体領域2(最新の被写体存在領域2)を決定する。
ステップS404において、カメラ制御部18(被写体追尾演算部19)は、上記色相差の合計値が最小のターゲット画像をもとに、対応する第1テンプレート画像(または第2テンプレート画像)を更新する。第2テンプレート画像を更新する場合に更新される第2テンプレート画像は、追尾した顔がもとになる。
なお、本実施形態では、テンプレート画像の更新を無条件に行う場合を例示しているが、追尾対象とする特定の被写体の動きの大きさによって上記差分演算値が変わる場合や、被写体の倍率が変わる場合があるので、所定の条件に合致した場合においてテンプレート画像の更新を行うようにしてもよい。
ステップS405において、カメラ制御部18(被写体追尾演算部19)は、新たな被写体領域1(または新たな被写体領域2)を基準にして探索領域1(または探索領域2)を決定し、図6による処理を終了する。上述した場合と同様に、被写体領域1(または被写体領域2)を、上下左右方向に4画素ずつ拡大した領域を探索領域1(または探索領域2)とする。
ステップS402を否定判定して進むステップS406において、カメラ制御部18(被写体追尾演算部19)は、追尾対象とする被写体が消失したと判定し、図6による処理を終了する。色相差の合計値が判定閾値より大きい場合は、追尾対象の被写体が存在しなかったと考えられる。ステップS406の処理を行うのは、例えば、追尾対象とする被写体の前に障害物等が出現した場合である。
以上のように、図6の追尾演算処理による動作は、概ね次のようである。すなわち、第1テンプレート画像を用いて追尾演算している場合は、新たな被写体領域1(最新の被写体存在領域1)を決定し、第2テンプレート画像を用いて追尾演算している場合は、新たな被写体領域2(最新の被写体存在領域2)を決定する。
<採用エリア判定処理>
図7は、採用エリア判定処理の流れを説明するフローチャートである。図7のステップS501において、カメラ制御部18(フォーカスエリア位置決定部11)は、被写体領域2が存在するか否かを判定する。被写体領域2が存在する場合は、顔が検出されており、かつ、顔が選択エリア51の周囲にある場合である。フォーカスエリア位置決定部11は、被写体領域2が存在する場合にステップS501を肯定判定してステップS502へ進み、被写体領域2が存在しない場合にはステップS501を否定判定してステップS507へ進む。
ステップS502において、カメラ制御部18(フォーカスエリア位置決定部11)は、被写体領域1に含まれるフォーカスエリアaにおいて算出したデフォーカス量と、被写体領域2に含まれるフォーカスエリアaにおいて算出したデフォーカス量との差を算出する。図1に例示したフォーカスエリアaのうち、内部を縦線で示す10個のフォーカスエリアaは、被写体領域1に含まれるフォーカスエリアaである。また、図1に例示したフォーカスエリアaのうち、内部を斜線で示す6個のフォーカスエリアaは、被写体領域2に含まれるフォーカスエリアaである。
被写体領域1や被写体領域2に複数のフォーカスエリアaが存在する場合、フォーカスエリア位置決定部11は、各被写体領域においてそれぞれ1つのフォーカスエリアa(例えば、カメラ300に最も近い被写体に対応するフォーカスエリアa)に基づくデフォーカス量を求め、このデフォーカス量の差を算出してステップS503へ進む。
なお、各被写体領域においてそれぞれ含まれる複数のフォーカスエリアaに基づく複数のデフォーカス量を求め、複数のデフォーカス量による全体の分布の差を求めるようにしてもよい。
ステップS503において、カメラ制御部18(フォーカスエリア位置決定部11)は、上記差に基づいて、被写体領域1および被写体領域2が同じ被写体であること、すなわち一致度の判定を行う。フォーカスエリア位置決定部11は、上記デフォーカス量の差が小さい(所定の一致度判定閾値以下)場合に、同じ被写体と判断する。
なお、判定条件は、ステップS502で算出したデフォーカス量の差だけでなく、デフォーカス量の差と、被写体領域1の周囲に被写体領域2が存在する頻度等を重みづけした判定条件としてもよい。
ステップS504において、カメラ制御部18(フォーカスエリア位置決定部11)は、一致度ありを判定した場合にステップS504を肯定判定してステップS505へ進み、一致度なしを判定した場合には、ステップS504を否定判定してステップS507へ進む。図1の例において、被写体領域1および被写体領域2はそれぞれ同じ人物の胴部分と顔であるので、フォーカスエリア位置決定部11は一致度ありを判定する。
ステップS505において、カメラ制御部18(フォーカスエリア位置決定部11)は、所定の条件に合致するか否かを判定する。フォーカスエリア位置決定部11は、例えば、被写体領域2における被写体が被写体領域1における被写体よりもカメラ300に近い(至近側)場合、または、被写体領域2における画像信号のコントラストが被写体領域1における画像信号のコントラストより高い場合に、ステップS505を肯定判定してステップS506へ進む。一方、フォーカスエリア位置決定部11は、被写体領域2における被写体が被写体領域1における被写体よりもカメラ300から遠い場合、または、被写体領域2における画像信号のコントラストが被写体領域1における画像信号のコントラストより低い場合に、ステップS505を否定判定してステップS507へ進む。
ステップS506において、カメラ制御部18(フォーカスエリア位置決定部11)は、被写体領域2に含まれるフォーカスエリアaの中から採用フォーカスエリアを決定し、図7による処理を終了する。
ただし、被写体領域2に含まれるフォーカスエリアaの全てにおいて、(1)デフォーカス量が算出できなかった場合、または、(2)算出したデフォーカス量の値が適切でない場合は、採用フォーカスエリアはなしとする。
ステップS507へ進む場合は、被写体領域2が存在しない場合も含まれる。ステップS507において、カメラ制御部18(フォーカスエリア位置決定部11)は、被写体領域1に含まれるフォーカスエリアaの中から採用フォーカスエリアを決定し、図7による処理を終了する。
ただし、被写体領域1に含まれるフォーカスエリアaの全てにおいて、(1)デフォーカス量が算出できなかった場合、または、(2)算出したデフォーカス量の値が適切でない場合は、採用フォーカスエリアはなしとする。
以上のように、図7の採用エリア判定処理による動作は、概ね次のようである。すなわち、人物の胴部分(被写体領域1)に基づいたデフォーカス量と、人物の顔領域52(被写体領域2)に基づいたデフォーカス量とが一致する場合、あるいは、略一致するとみなせるほどに両者が近似している場合に、顔領域52(被写体領域2)を用いた追尾処理によって検出した人物の顔に対応する採用エリアを決める。また、上記デフォーカス量が一致も近似もしていない場合は、被写体領域1を用いた追尾処理によって検出した被写体に対応する採用エリアを決める。
上述した実施の形態によれば、次の作用効果が得られる。
(1)カメラ300の焦点検出装置は、画像を繰り返し取得する測光センサ16によって時系列に取得される画像から、第1被写体の位置を追尾する被写体追尾演算部19と、画像から、第2被写体の位置を追尾する被写体追尾演算部19と、画面内に設けられた複数のフォーカスエリアaに対してそれぞれ瞳分割位相差方式でデフォーカス量を検出するデフォーカス量演算部10と、第1被写体の位置に対応するフォーカスエリアaでデフォーカス量演算部10が検出した第1のデフォーカス量と、第2被写体の位置に対応するフォーカスエリアaでデフォーカス量演算部10が検出した第2のデフォーカス量との差に基づいて、焦点調節に用いるフォーカスエリアaを決めるフォーカスエリア位置決定部11とを備える。これにより、2つの被写体(第1被写体、第2被写体)をそれぞれ追尾した2つの被写体の位置の双方にフォーカスエリアaが存在する場合に、適切に焦点検出位置を選べるから、焦点調節を適切に行い得る。例えば、2つのデフォーカス量が同じといえるほどに上記の差が小さい場合には、2つの被写体(第1被写体、第2被写体)の位置からどちらの位置を選んでも、焦点調節状態が大きく変化することがない。
(2)カメラ300はさらに、画像から顔を検出するカメラ制御部18を備える。第1被写体は、画面内でユーザー操作に基づく位置に設定された選択エリア51に存在する対象物であり、第2被写体は、カメラ制御部18で検出された顔とした。これにより、例えば人物の顔にピントを合わせたい使用場面で、ユーザーが選択エリア51として人物の胴部分を選んだ場合でも、この人物を適切に追尾し、この人物の顔にピント合わせを行い得る。
一般に、顔検出は、顔の向きによって検出困難になるが、顔の色情報を用いて行う追尾処理は、顔の向きに影響を受け難い。顔(第2被写体)を追尾対象としたことで、例えば顔の向きを変えながら移動する人物を適切に追尾し、その顔にピント合わせを行い得る。
(3)フォーカスエリア位置決定部11は、第1のデフォーカス量と、第2のデフォーカス量との差が所定の判定閾値以下の場合に、焦点調節に用いるフォーカスエリアaとして顔(第2被写体)の位置に対応するフォーカスエリアaを決定するようにした。一般に、同じ人物の顔と胴については、デフォーカス量が同等と考えられる。顔(第2被写体)の位置に対応するフォーカスエリアaを用いることで、例えば、ユーザーが選択エリア51として人物の胴部分を選んだ場合でも、この人物の顔にピント合わせを行い得る。
(4)フォーカスエリア位置決定部11は、顔(第2被写体)が第1被写体よりも至近側にある場合に、焦点調節に用いるフォーカスエリアaとして顔の位置に対応するフォーカスエリアaを決定し、顔が第1被写体よりも至近側にない場合に、焦点調節に用いるフォーカスエリアaとして第1被写体の位置に対応するフォーカスエリアaを決定する。顔(第2被写体)が第1の被写体よりもカメラ300に近い場合に顔の位置に対応するフォーカスエリアaを用いることで、適切に顔にピント合わせを行い得る。
(5)フォーカスエリア位置決定部11は、顔(第2被写体)の位置に対応する画像のコントラストが第1被写体の位置に対応する画像のコントラストよりも高い場合に、焦点調節に用いるフォーカスエリアaとして顔の位置に対応するフォーカスエリアaを決定し、顔の位置に対応する画像のコントラストが第1被写体の位置に対応する画像のコントラストよりも高くない場合に、焦点調節に用いるフォーカスエリアaとして第1被写体の位置に対応するフォーカスエリアaを決定する。コントラストが高い顔(第2被写体)の位置に対応するフォーカスエリアaを用いることで、適切に顔にピント合わせを行い得る。
(6)フォーカスエリア位置決定部11は、第1のデフォーカス量と、第2のデフォーカス量との差が所定の判定閾値を超える場合に、焦点調節に用いるフォーカスエリアaとして第1被写体の位置に対応するフォーカスエリアaを決定するようにした。一般に、人物の顔と人物の胴体とでデフォーカス量の差が大きい場合、異なる人物の顔と胴体と考えられる。このような場合において、選択エリア51として選ばれた対象物に対して適切にピント合わせを行い得る。
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
上述した説明では、図1の撮影画面50内の選択エリア51の外側で、選択エリア51の上側に人物の顔などの特定の被写体(第2被写体)が存在する場合において、選択エリア51内の特定の被写体(第1被写体)に相当する第1テンプレート画像と、上記第2被写体に相当する第2テンプレート画像とを用いて追尾処理を行う例を説明した。人物の顔の位置は、選択エリア51の上側に限らず、右側、左側、あるいは下側であってもよく、撮影画面50の中で選択エリア51の周囲にあればよい。
(変形例2)
以上の説明では、撮像素子6と別に位相差AF検出部8を備えるレンズ交換式の一眼レフカメラを例に説明した。この代わりに、撮像素子6においてフォーカスエリアaに対応する位置に位相差検出用の画素(焦点検出用画素とも呼ばれる)を設け、位相差検出用の画素から読み出されるAF用検知信号に基づいてデフォーカス量演算を行うように構成してもよい。撮像用の画素とともに位相差検出用の画素を有する撮像素子を用いることで、クイックリターンミラーを備えていないミラーレス一眼カメラや、ビデオカメラなどの撮像機器でも、本実施形態と同様の作用効果が得られる。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
1…レンズ群
1b…フォーカスレンズ
6…撮像素子
8…位相差AF検出部
9…AF−CCD制御部
10…デフォーカス演算部
11…フォーカスエリア位置決定部
12…レンズ駆動量演算部
13…レンズ駆動制御部
16…測光センサ
18…カメラ制御部
19…被写体追尾演算部
51…選択エリア
100…カメラボディ
200…交換レンズ
300…カメラ
a…フォーカスエリア

Claims (7)

  1. 画像を繰り返し取得する画像取得部によって時系列に取得される前記画像から、第1の追尾対象の位置を追尾する第1追尾部と、
    前記画像から、前記第1の追尾対象と異なる第2の追尾対象の位置を追尾する第2追尾部と、
    画面内に設けられた複数の焦点検出位置に対してそれぞれ焦点調節状態を検出する焦点検出部と、
    前記第1の追尾対象の位置に対応する前記焦点検出位置で前記焦点検出部が検出した第1の焦点調節状態と、前記第2の追尾対象の位置に対応する前記焦点検出位置で前記焦点検出部が検出した第2の焦点調節状態との差に基づいて、焦点調節に用いる焦点検出位置を決める焦点調節制御部と、
    を備える焦点検出装置。
  2. 請求項1に記載の焦点検出装置において、
    前記画像から顔を検出する顔検出部を備え、
    前記第1の追尾対象は、前記画面内でユーザー操作に基づく位置に設定された領域に存在する対象物であり、
    前記第2の追尾対象は、前記顔検出部で検出された顔である、
    焦点検出装置。
  3. 請求項2に記載の焦点検出装置において、
    前記焦点調節制御部は、前記第1の焦点調節状態と、前記第2の焦点調節状態との差が所定の判定閾値以下の場合に、前記焦点調節に用いる焦点検出位置として前記第2の追尾対象の位置に対応する前記焦点検出位置を決定する、
    焦点検出装置。
  4. 請求項3に記載の焦点検出装置において、
    前記焦点調節制御部は、
    前記第2の追尾対象が前記第1の追尾対象よりも至近側にある場合に、前記焦点調節に用いる焦点検出位置として前記第2の追尾対象の位置に対応する前記焦点検出位置を決定し、
    前記第2の追尾対象が前記第1の追尾対象よりも至近側にない場合に、前記焦点調節に用いる焦点検出位置として前記第1の追尾対象の位置に対応する前記焦点検出位置を決定する、
    焦点検出装置。
  5. 請求項3に記載の焦点検出装置において、
    前記焦点調節制御部は、
    前記第2の追尾対象の位置に対応する画像のコントラストが前記第1の追尾対象の位置に対応する画像のコントラストよりも高い場合に、前記焦点調節に用いる焦点検出位置として前記第2の追尾対象の位置に対応する前記焦点検出位置を決定し、
    前記第2の追尾対象の位置に対応する画像のコントラストが前記第1の追尾対象の位置に対応する画像のコントラストよりも高くない場合に、前記焦点調節に用いる焦点検出位置として前記第1の追尾対象の位置に対応する前記焦点検出位置を決定する、
    焦点検出装置。
  6. 請求項2〜5のいずれか一項に記載の焦点検出装置において、
    前記焦点調節制御部は、前記第1の焦点調節状態と、前記第2の焦点調節状態との差が所定の判定閾値を超える場合に、前記焦点調節に用いる焦点検出位置として前記第1の追尾対象の位置に対応する前記焦点検出位置を決定する、
    焦点検出装置。
  7. 請求項1〜6のいずれか一項に記載の焦点検出装置を備えるカメラ。
JP2015235019A 2015-12-01 2015-12-01 結像制御装置およびカメラ Active JP6825203B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235019A JP6825203B2 (ja) 2015-12-01 2015-12-01 結像制御装置およびカメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235019A JP6825203B2 (ja) 2015-12-01 2015-12-01 結像制御装置およびカメラ

Publications (2)

Publication Number Publication Date
JP2017103601A true JP2017103601A (ja) 2017-06-08
JP6825203B2 JP6825203B2 (ja) 2021-02-03

Family

ID=59017190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235019A Active JP6825203B2 (ja) 2015-12-01 2015-12-01 結像制御装置およびカメラ

Country Status (1)

Country Link
JP (1) JP6825203B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003741A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 撮像装置及びその制御方法
WO2020137602A1 (ja) * 2018-12-28 2020-07-02 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JP2020198561A (ja) * 2019-06-04 2020-12-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、撮像システム、制御方法、及びプログラム
WO2021047070A1 (zh) * 2019-09-12 2021-03-18 深圳传音控股股份有限公司 终端拍摄方法、装置、移动终端及可读存储介质
US11115583B2 (en) 2018-06-29 2021-09-07 Canon Kabushiki Kaisha Apparatus and method for determination of a focus detection target

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304280A (ja) * 2006-05-10 2007-11-22 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2008052123A (ja) * 2006-08-25 2008-03-06 Eastman Kodak Co 撮像装置
JP2013012941A (ja) * 2011-06-29 2013-01-17 Olympus Imaging Corp 追尾装置、追尾方法及び追尾プログラム
JP2013034177A (ja) * 2011-06-30 2013-02-14 Canon Inc 被写体検出機能を備えた撮像装置、撮像装置の制御方法、及び、プログラム
JP2013210778A (ja) * 2012-03-30 2013-10-10 Intellectual Ventures Fund 83 Llc 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304280A (ja) * 2006-05-10 2007-11-22 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2008052123A (ja) * 2006-08-25 2008-03-06 Eastman Kodak Co 撮像装置
JP2013012941A (ja) * 2011-06-29 2013-01-17 Olympus Imaging Corp 追尾装置、追尾方法及び追尾プログラム
JP2013034177A (ja) * 2011-06-30 2013-02-14 Canon Inc 被写体検出機能を備えた撮像装置、撮像装置の制御方法、及び、プログラム
JP2013210778A (ja) * 2012-03-30 2013-10-10 Intellectual Ventures Fund 83 Llc 撮像装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003741A (ja) * 2018-06-29 2020-01-09 キヤノン株式会社 撮像装置及びその制御方法
US11115583B2 (en) 2018-06-29 2021-09-07 Canon Kabushiki Kaisha Apparatus and method for determination of a focus detection target
WO2020137602A1 (ja) * 2018-12-28 2020-07-02 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JPWO2020137602A1 (ja) * 2018-12-28 2021-11-18 ソニーグループ株式会社 撮像装置、撮像方法、およびプログラム
US11539892B2 (en) 2018-12-28 2022-12-27 Sony Group Corporation Imaging device, imaging method, and program
JP2020198561A (ja) * 2019-06-04 2020-12-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、撮像システム、制御方法、及びプログラム
WO2021047070A1 (zh) * 2019-09-12 2021-03-18 深圳传音控股股份有限公司 终端拍摄方法、装置、移动终端及可读存储介质

Also Published As

Publication number Publication date
JP6825203B2 (ja) 2021-02-03

Similar Documents

Publication Publication Date Title
JP5288015B2 (ja) 画像追尾装置、画像追尾方法、およびカメラ
JP6825203B2 (ja) 結像制御装置およびカメラ
JP2008292894A (ja) 画像追尾装置、画像追尾方法および撮像装置
JP2009015185A (ja) 画像検出装置、焦点調節装置および撮像装置
JP5896763B2 (ja) 光学機器および自動焦点調節を行う方法
JP2008046354A (ja) 被写体追尾装置およびカメラ
JP2011007867A (ja) 焦点検出装置、および、カメラ
JP2009198771A (ja) 焦点検出装置および撮像装置
JP2012208507A (ja) 画像追尾装置
JP4888249B2 (ja) 焦点検出装置および撮像装置
JP2008271006A (ja) 画像追尾装置、画像追尾方法および撮像装置
JP2012226206A (ja) 画像追尾装置および撮像装置
JP2017026914A (ja) 撮像装置およびその制御方法
JP2009063689A (ja) 焦点検出装置および撮像装置
JP5256847B2 (ja) 撮像装置
JP2018004904A (ja) 被写体追尾装置および撮像装置
JP2009017093A (ja) 画像認識装置、焦点調節装置および撮像装置
JP5541396B2 (ja) 画像追尾装置
JP2010054586A (ja) 焦点調節装置、撮像装置
JP2012133067A (ja) 撮像装置
JP5447579B2 (ja) 追尾装置、焦点調節装置および撮影装置
JP5233646B2 (ja) 画像追尾装置、撮像装置、画像追尾方法
JP2012010006A (ja) 撮像装置
JP5789937B2 (ja) 画像追尾装置及び撮像装置
JP2016114721A (ja) 撮像装置および撮像装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R150 Certificate of patent or registration of utility model

Ref document number: 6825203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250