JP6702746B2 - 撮像装置、その制御方法、プログラム及び記憶媒体 - Google Patents

撮像装置、その制御方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP6702746B2
JP6702746B2 JP2016023892A JP2016023892A JP6702746B2 JP 6702746 B2 JP6702746 B2 JP 6702746B2 JP 2016023892 A JP2016023892 A JP 2016023892A JP 2016023892 A JP2016023892 A JP 2016023892A JP 6702746 B2 JP6702746 B2 JP 6702746B2
Authority
JP
Japan
Prior art keywords
subject
tracking
area
defocus amount
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016023892A
Other languages
English (en)
Other versions
JP2017143431A (ja
Inventor
竜太 関本
竜太 関本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016023892A priority Critical patent/JP6702746B2/ja
Priority to US15/426,877 priority patent/US10163222B2/en
Publication of JP2017143431A publication Critical patent/JP2017143431A/ja
Application granted granted Critical
Publication of JP6702746B2 publication Critical patent/JP6702746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Description

本発明は、撮像装置、追尾装置に関し、特に被写体追尾に関するものである。
近年の撮像装置では、特定の被写体の領域と相関の高い領域を継続的に検出し、検出された領域を追い続けることで特定の被写体の追尾を行う追尾技術が知られている。
また、近年、タッチパネルを備えたディスプレイを有する撮像装置が知られている。
特許文献1では、被写体の追尾中にタッチパネルをタッチすることで追尾対象を選択し、追尾を続行する技術が開示されている。
特開2013−143578号
しかし、ユーザーが意図して追尾していた被写体とは違う被写体を撮像装置が追尾対象としてしまった場合に、上記技術を用いて移動している被写体をタッチすることで被写体を再度指定しようとしても、タッチが被写体の位置から外れてしまう場合がある。ユーザーが意図した被写体からタッチが外れてしまうと、ユーザーが追尾したい被写体とは異なる被写体を指定して追尾してしまう。
そこで、本発明は、追尾中にタッチパネルへのタッチによって追尾する被写体を再指定する場合において、タッチが外れてしまった場合であっても、ユーザーが本来意図していた被写体を追尾することができる撮像装置、追尾装置を提供することを目的とする。また、その制御方法、プログラム及び記憶媒体を提供することを目的とする。
そこで、本発明の一側面は、被写体に対応する領域である追尾領域と相関の高い領域を継続的に検出する追尾手段と、ユーザーによるタッチ操作を検出するタッチ検出手段と、デフォーカス量の算出を行う焦点検出手段と、被写体の動きを検出する動体検知手段と、前記動体検知手段の検出結果に応じて、前記タッチ操作を行ったタッチ位置を含む領域を、特定の被写体をサーチするためのサーチ領域として設定するサーチ領域設定手段と、前記サーチ領域設定手段が設定した前記サーチ領域を複数のブロックに分割する分割手段と、前記複数のブロックそれぞれについて前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分を算出する差分算出手段と、を有し、前記差分算出手段が算出した前記複数のブロックそれぞれについて前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が、第1の所定値未満であるブロックがある場合は、前記追尾手段は前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満であるブロックを含む領域を追尾領域として設定し、前記複数のブロックそれぞれについて前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満のブロックがない場合には、前記追尾手段は追尾領域を変更しないよう構成したことを特徴とする。
また、本発明の別側面は、被写体に対応する領域である追尾領域と相関の高い領域を継続的に検出する追尾手段と、ユーザーによるタッチ操作を検出するタッチ検出手段と、距離情報の検出を行う焦点検出手段と、被写体の動きを検出する動体検知手段と、前記動体検知手段の検出結果に応じて、前記タッチ操作を行ったタッチ位置を含む領域を、特定の被写体をサーチするためのサーチ領域として設定するサーチ領域設定手段と、前記サーチ領域設定手段が設定した前記サーチ領域を複数のブロックに分割する分割手段と、前記複数のブロックそれぞれについて前記距離検出手段が検出した距離情報と過去に追尾していた被写体の距離情報との差分を算出する差分算出手段と、を有し、前記差分算出手段が算出した前記複数のブロックそれぞれについて前記距離検出手段が算出した距離情報と前記過去に追尾していた被写体の距離情報との差分が、第1の所定値未満であるブロックがある場合は、前記追尾手段は前記距離検出手段が算出した距離情報と前記過去に追尾していた被写体の距離情報との差分が第1の所定値未満であるブロックを含む領域を追尾領域として設定し、前記複数のブロックそれぞれについて前記距離検出手段が算出した距離情報と前記過去に追尾していた被写体の距離情報との差分が第1の所定値未満のブロックがない場合には、前記追尾手段は追尾領域を変更しないよう構成したことを特徴とする。
また、本発明の別側面は、所定の対象を追尾するために、画面中の第1の追尾領域と相関の高い領域を第2の追尾領域として自動的に変更する追尾手段と、ユーザーによる画面へのタッチ操作を検出するタッチ検出手段と、前記タッチ操作を行った画面のタッチ位置に基づき前記所定の対象をサーチするためのサーチ領域を設定するサーチ領域設定手段と、を有し、前記追尾手段は、前記サーチ領域設定手段によって設定されたサーチ領域のデフォーカス量と前記第1の追尾領域のデフォーカス量との差分を算出し、前記差分が所定値より小さい場合は、前記サーチ領域の少なくとも一部を前記第2の追尾領域として設定し、前記差分が所定値より大きい場合は、前記サーチ領域を第2の追尾領域として設定しないように制御するよう構成したことを特徴とする。
本発明によれば、追尾中にタッチパネルへのタッチによって追尾する被写体を再指定する場合において、タッチが外れてしまった場合であっても、ユーザーが本来意図していた被写体を追尾することができる。
実施例1に係る撮像装置の構成例を示すブロック図である。 実施例1に係る撮像素子の全体図を示すブロック図である。 位相差検出方式のオートフォーカスの基本原理を示す図である。 実施例1に係る撮像装置の処理動作を示すフローチャートである。 実施例1に係る撮像装置が行う追尾領域設定の処理動作を示すフローチャートである。 実施例1における、追尾AF枠、タッチ位置、被写体移動方向、および被写体速度の違いによる処理動作の違いについて説明するための図である。 本発明の実施形態において、AFエリアの設定手法について説明するための図である。
[実施例1]
以下、図面を参照して本発明の好適な実施形態を説明する。
[撮像装置の構成(図1)]
図1は、本発明の実施例に係るレンズユニット交換式の撮像装置100の構成を示すブロック図である。本実施例の撮像装置100はタッチパネル機能付表示装置を備えた撮像装置である。
撮影レンズ210、絞り211、レンズマウント102及び202、シャッター144を通過した不図示の被写体の光学像は、撮像素子121に結像する。撮像素子121は結像した光学像を電気信号に変換する。本実施例の撮像素子121は、いわゆる撮像面位相差方式の焦点検出を行うことができる。詳しくは後述する。
A/D変換部122は、撮像素子121のアナログ信号出力をデジタル信号に変換する。A/D変換部122でA/D変換されたデジタル信号は、メモリ制御部124及びシステム制御部120により制御され、メモリ127に格納される。
画像処理部123は、A/D変換部122でA/D変換されたデジタル信号のデータ或いはメモリ制御部124からのデータに対して所定の画素補間処理や色変換処理を行う。
また、画像演算部129では、撮像素子121から出力される視差を有する複数の画素信号に基づいて前述の撮像面位相差方式の焦点検出の焦点検出を行い、撮影光学系の結像面の、予定焦点面に対するデフォーカス量(視差を有する像のずれ量)を算出する。
また、画像演算部129では、撮像画像のコントラスト値を算出し、コントラスト値から撮影画像の合焦状態を測定することもできる。更に又、メモリ127に格納された画像データと現在の撮像画像の相関値を算出し、最も相関の高い領域を探索することが可能である。
また、画像演算部129は、基準画像を追尾対象画像(テンプレート)とし、読み出した画像に対してテンプレートマッチング処理を実行することで、画面中の被写体を自動的に検出することができる。連続した撮像で得られる複数の画像データに対して相関の高い被写体を順次検出すれば、継続的に被写体を追尾し、被写体の位置情報を連続して出力することができる。追尾の対象である領域を追尾領域と称し、追尾対象画像は追尾領域の画像である。また、ユーザーが追尾の対象とする被写体を特定の被写体とも称する。なお、色ヒストグラムの類似度を利用して被写体を追尾しても良い。
メモリ制御部124は、A/D変換部122、画像処理部123、表示装置110、外部着脱メモリ部130とメモリ127間のデータの送受を制御する。A/D変換部122のデータが画像処理部123、メモリ制御部124を介して、或いはA/D変換部122のデータが直接メモリ制御部124を介して、メモリ127に書き込まれる。
表示装置110はタッチパネル機能付の液晶ディスプレイであり、液晶パネル表示部125、バックライト照明部126及びタッチパネル部151により構成される。
液晶パネル表示部125は、システム制御部120の指示により、メモリ127の画像表示データ用領域に格納されたメニュー画面、又は外部着脱メモリ部130に格納された画像ファイルを表示することが可能である。また、撮像素子121から得られた撮像データを逐次リアルタイムにスルー画像表示することで、「ライブビュー」撮影を行うことができる。ライブビュー撮影中は、AF対象の被写体の位置をユーザーが認識できるよう、表示装置110に対して、AF領域を示すAF枠を画像に重畳して表示することができる。
バックライト照明部126は、液晶パネル表示部125に対して背面照射する。バックライト照明の光源素子としては、LED、有機EL、蛍光管等がある。システム制御部120の指示により、照明を任意に点灯或いは消灯することが可能である。
タッチパネル部151は、タッチ検出方式としては、静電容量方式が使用される。本実施例では、このタッチパネル部151により、ユーザーはAFする被写体の位置を指定するタッチAFを実現することができる。
システム制御部120は撮像装置100全体を制御する。メモリ127は、撮影した静止画像及び動画像及び再生用表示のための画像のデータを格納する。このため、メモリ127は所定枚数の静止画像や動画像を格納するのに十分な記憶量を備える。なお、メモリ127はシステム制御部120のプログラムスタック領域、ステータス記憶領域、演算用領域、ワーク用領域、画像表示データ用領域が確保されている。各種の演算は、メモリ127の演算用領域を利用し、システム制御部120により実行される。また、メモリ127は後述する焦点検出結果や追尾結果を記憶することができる。
外部着脱メモリ部130はコンパクトフラッシュ(登録商標)やSDカードといった記録媒体に画像ファイル記録や読出を行う。
測光部142はAE(自動露出)処理を行う。撮影レンズ210に入射した光線を、絞り211、レンズマウント102及び202、そして不図示の測光用レンズを介して、測光部142に入射させることにより、光学像として結像された画像の露出状態を測定することができる。また、測光部142は、ストロボユニット300と連携することによりEF(フラッシュ調光)処理機能も備える。また、ストロボユニット300は、AF補助光の投光機能、フラッシュ調光機能も備える。
カメラ制御部140は、シャッター制御部141及び測光部142との送受通信によりカメラとしての一連の動作を制御する。また、カメラ制御部140は、レンズユニット200、ストロボユニット300を制御することも可能である。
再生スイッチ132、メニュースイッチ133、モードダイアル134、レリーズスイッチ135、操作部136、電子ダイヤル137及び電源スイッチ138は、システム制御部120の各種の動作指示を入力する手段(操作手段)である。これらの操作手段は、スイッチやダイヤル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。ここで、これらの操作手段の具体的な説明を行う。再生スイッチ132は再生スイッチであり、表示装置110に所定の画像データを表示する再生表示モード操作ができる。外部着脱メモリ部130に格納された画像ファイルを再生表示する場合は、この再生スイッチ132により操作する。また、既に再生表示モードで、この操作が行われた場合には、再生表示モードから撮影モードへの切り替えができる。
メニュースイッチ133は、表示装置110に各種項目一覧を表示する。この表示内容としては撮影に関する状態設定、記録媒体のフォーマット、時計の設定、現像パラメータ設定、及びユーザー機能設定(カスタム機能の設定)がある。
モードダイアル134は、撮影モードを切り替えるための操作部材である。
レリーズスイッチ135は、レリーズボタンの半押し(SW1)及び全押し(SW2)で各々ONとなるスイッチである。半押し状態ではAF処理、AE処理、AWB(オートホワイトバランス)処理、EF(フラッシュ調光)処理等の動作開始を指示する。全押し状態では、撮像素子121から読み出した信号をA/D変換部122、メモリ制御部124を介してメモリ127に画像データを書き込む撮像処理、画像処理部123やメモリ制御部124での演算を用いた現像処理を行う。さらに、メモリ127から画像データを読み出し、画像処理部123で圧縮を行い、外部着脱メモリ部130に装着された不図示の記録媒体に画像データを書き込む記録処理という一連の処理の動作開始を指示する。
操作部136は各種ボタンスイッチを有し、撮影モード、連写モード、セット、マクロ、ページ送り、フラッシュ設定、メニュー移動、ホワイトバランス選択、撮影画質選択、露出補正、日付/時間設定ができる。更にライブビュー撮影開始と停止を行うスイッチ、上下左右方向スイッチ、再生画像のズーム倍率変更スイッチ、画像表示ON/OFFスイッチ、撮影直後に撮影画像を自動再生するクイックレビューON/OFFスイッチ、再生画像を消去するスイッチがある。また、JPEG及びMPEG圧縮の各圧縮率と、撮像素子の信号をそのままデジタル化して記録するCCDRAWモードとを選択する圧縮モードスイッチがある。その他、レリーズスイッチ半押し状態でAFの合焦状態を保ち続けるワンショットAFモードと連続してAF動作を続けるサーボAFモードとを設定するAFモード設定スイッチ等がある。
電子ダイヤル137を操作することで、シャッタースピード、絞り値、露出等を設定することができる。
電源スイッチ138によって、撮像装置100の電源オン、電源オフの各モードを切り替え設定することができる。また、撮像装置100に接続されたレンズユニット200、ストロボユニット300、記録媒体等の各種付属装置の電源オン、電源オフの設定も合わせて切り替え設定することができる。
タイマー139は、時計機能、カレンダー機能、タイマーカウンター機能、アラーム機能があり、スリープモードへの移行時間や、アラーム通知等のシステム管理に用いられる。
加速度センサ152は、撮像装置の姿勢や動きを加速度情報として検出することが可能である。
顔検出部153は、撮像画像内にある顔の位置を検出することができる。撮影した画像と、予め定められた顔の特徴点である目、口、鼻等の顔データのテンプレート情報とでパターンマッチングを行い、テンプレートとの相関性の高さを比較することで顔検出を行うことができる。
動体検知部154は、撮像画像内の被写体の動きを検出することができる。連続して撮影されたNフレーム目の画像とN−1フレーム目の画像を比較して、動きベクトル成分を抽出する。抽出した動きベクトル成分から、加速度センサ152により検出された撮像装置の動きにより発生した動きベクトル成分を差し引くことで、被写体の動きベクトル成分のみを検出できる。検出した動きベクトルをグルーピングし、撮像画像内においてある一定の面積以上の動きベクトル成分の集合を、動体として検知する。また、検知された動体は、Nフレーム目の画像とN−1フレーム目の画像の比較により、撮像画像内での移動速度を算出することができる。
人体検出部155は、撮像画像内にある人体の位置を検出することができる。顔検出部153と同様に、撮影した画像と、予め定められた人体の特徴点のテンプレート情報とでパターンマッチングを行い、テンプレートとの相関性の高さを比較することで人体検出を行うことができる。
レンズマウント102及び202は、撮像装置100をレンズユニット200と機械的に接続するためのインターフェースである。
コネクタ101及び201は撮像装置100をレンズユニット200と電気的に接続する。コネクタ101及び201はカメラ制御部140により制御される。
アクセサリシュー111及び301は、撮像装置100をストロボユニット300と電気的かつ機械的に接続するためのインターフェースである。
レンズユニット200は撮像装置100に対して取り外し可能であり、不図示の被写体の光学像を撮影レンズ210から、絞り211、レンズマウント202及び102、シャッター144を介して導き、撮像素子121上に結像させることができる。
レンズ制御部204はレンズユニット200全体を制御する。レンズ制御部204は、動作用の定数、変数、プログラム等を記憶するメモリやレンズユニット200固有の番号等の識別情報、管理情報、開放絞り値や最小絞り値、焦点距離等の機能情報、現在や過去の各設定値等を保持する不揮発メモリの機能も備える。レンズ制御部204は、距離検出部203或いは画像処理部123より測定された画像の合焦状態に応じて、撮影レンズ210のフォーカシングを制御し、撮像素子121に入射する被写体像の結像位置を変更することでAF動作を行うことが可能である。また、レンズ制御部204は絞り211の制御や、撮影レンズ210のズーミングを制御する機能も兼ね備える。
ストロボ発光制御部302はストロボユニット300全体を制御する。ストロボ発光制御部302は不図示のキセノン管等の発光部に対し、測光部142からの情報に基づいて発光量や発光タイミングを制御する。
[撮像素子の構成(図2)]
次に、図2に示した撮像素子121の全体図を参照して、撮像素子121の構成について説明する。
撮像素子121は、画素部領域1、垂直走査回路2、読み出し回路3、水平走査回路4、出力アンプ5から構成される。画素部領域1には、複数の単位画素部1000が行列状に配置されている。ここでは、説明を簡単にするために4×4の16画素の配列を示してあるが、実際には数百万以上の単位画素が行列状に配置される。
各単位画素部1000は、フォトダイオード1000Aおよびフォトダイオード1000Bを備える。このフォトダイオード1000Aと1000Bのそれぞれが、撮影レンズ210の射出瞳において別々の瞳領域を通過した光束(視差を有する光束)を受光するために前面にマイクロレンズが配置されている。このため、フォトダイオード1000Aと1000Bの信号の位相差に基づく焦点検出(撮像面位相差方式の焦点検出)が可能である。位相差に基づく焦点検出の原理については後述する。なお、単位画素部1000が有するフォトダイオードは2つに限る必要はなく、フォトダイオードを複数有すれば良い。
垂直走査回路2は、画素部領域1の画素を1行単位で選択し、選択行の画素に対して駆動信号を送出する。読み出し回路3は、列毎に列読み出し回路を備え、単位画素部1000からの出力信号を増幅し、その出力信号をサンプルホールドする。水平走査回路4は、読み出し回路3でサンプルホールドされた信号を、列毎に順次、出力アンプ5へ出力するための信号を送出する。出力アンプ5は、水平走査回路4の動作により、読み出し回路3から出力された信号をA/D変換部122に出力する。
[位相差式焦点検出の基本原理(図3)]
次に、図3を参照して、位相差方式の焦点検出の基本原理について説明する。図3(a)、(b)、(c)は、撮影レンズ210を通して入射される被写体像が撮像面において結像されることを示した図である。図3(d)、(e)、(f)は、撮像素子121上で結像した像の関係を表した図である。なお、図3(d)、(e)、(f)において、便宜上A領域の像とB領域の像に対応する軸を別個に設けた図としているが、実際は同じ軸である。
位相差方式の焦点検出では、撮影レンズ210を通して入射された視差を有する光束に基づいて対応する(視差を有する)2つの像信号を生成し、その2つの像信号の像間隔を計測してピントのズレ量を検出する。図3のように、異なるA領域とB領域のそれぞれ領域(一部重複していても良い)を通過する光束は、互いに視差を有している。
図3(a)のように、撮像面上でA領域の光とB領域の光が合わさり、ピントが合っている場合は、適正にピントが合っている。この場合、図3(d)のように、2つの像であるA領域の像とB領域の像の間隔は適正値となっている。
一方、図3(b)のように、ピントが合っている面が撮像面より手前(撮影レンズ側)にある状態を、前ピンと呼ぶ。この場合、図3(e)のように、2つの像間隔は適正値より狭くなる。
反対に、図3(c)のように、ピントが合っている面が撮像面より奥(撮影レンズと反対側)にある状態を、後ピンと呼ぶ。この場合、図3(f)のように、2つの像間隔が適正値より広くなる。
オートフォーカス(AF)でピントを合わせる際には、合焦している状態の2つの像間隔を基準に、狭いときは前ピン、広いときは後ピンと判定して、レンズを動かす方向を決定する。また、センサ上のズレ量を基にレンズの移動量を演算し、撮影レンズ210を駆動する。このずれ量のことをデフォーカス量と呼ぶ。
なお、ここでは位相差式焦点検出を例に説明したが、本実施例は前述の通り、撮像画像のコントラスト値を算出し、コントラスト値から撮影画像の合焦状態を測定することもできる。
[メインフロー(図4)]
以下、図4のフローチャートを参照して、実施例1の撮像装置100の、追尾AFモードにおける撮影処理動作について説明する。
追尾AFモードを開始すると、ステップS200では、撮像装置100は撮像素子121から画像を取り込む。A/D変換部122は撮像素子121が光電変換し出力した電気信号を、デジタル信号に変換する。変換されたデジタル信号は、メモリ制御部124及びシステム制御部120により制御され、メモリ127に格納される。
ステップS201では、システム制御部120は現在選択されている撮影モードが追尾AFモードであるか否かを判定する。追尾AFモードである場合、ステップS203に進む。追尾AFモードではない場合、本フローを終了する。
ステップS202では、追尾AFモードにおける追尾対象が存在するかどうかをシステム制御部120が判定する。例えばシステム制御部120は、顔検出部153、人体検出部155、動体検知部154、およびメモリ127の情報を元に、画像の中に追尾対象となる被写体が存在するか否かを判定する。追尾対象となる被写体としては、顔、人体、動体、前回の追尾対象が挙げられる。また、追尾対象となる被写体はユーザーの操作により予め指定されている場合もある。追尾対象が存在する場合はステップS203に進む。追尾対象が存在しない場合はステップS201へと戻り、追尾AFモードである間は、ステップS202において追尾対象が見つかるまでステップS201〜S202を繰り返す。
ステップS203では、システム制御部120は、画像内の追尾対象の位置に追尾領域を設定する。追尾領域とは、前述の通り追尾の対象である領域である。前述の通り画像演算部129は、追尾領域の画像を追尾対象画像(テンプレート)として用い、又は色ヒストグラムの類似度を用いて被写体を追尾する。システム制御部120が画像内の追尾対象の位置に追尾領域を設定すると、ステップS204に進む。
ステップS204では、システム制御部120は、ステップS203で設定した追尾領域に対応する位置に追尾AFエリア501を設定する。このように、追尾AFエリア501は、前述の追尾領域に対応して設定されるAFエリアである。
ステップS205では、画像演算部129はA/D変換部122からの情報を元に、追尾AFエリア501のデフォーカス量D_objectを算出する。算出したデフォーカス量が時刻t=t1でのデフォーカス量とすれば、D_object(t=t1)は、画像演算部129からメモリ127に送信され、保存される。画像演算部129は、一定時間ごとにデフォーカス量の算出を行い、算出するたびにメモリ127への保存を行う。メモリ127に保存されている前回のデフォーカス量の情報は、デフォーカス量を算出するたびに消去するのではなく、一定期間保持する。例えば、時刻t=t1、t2、…、tnにおける追尾AFエリア501のデフォーカス量を、D_object(t=t1)、D_object(t=t2)、…、D_object(t=tn)としてそれぞれ保持するようにしても良い。
ステップS217では、レンズ制御部204はシステム制御部120からの情報(ステップS205において取得したデフォーカス量)を元に、撮影レンズ210のフォーカシングを制御し、AF動作を行う。
ステップS206では、システム制御部120は動体検知部154から、被写体の動きベクトル情報を読み出す。読み出された動きベクトル情報は、システム制御部120からメモリ127に送信され、保存される。
ステップS207では、システム制御部120は、ステップS206でメモリ127に保存した動きベクトル情報を元に、被写体の位置を算出する。
ステップS208では、システム制御部120は、ステップS207で算出した被写体位置情報を元に、追尾領域の位置を更新する。追尾領域の位置の更新に対応して、追尾AFエリアの位置も更新される。
ステップS209では、システム制御部120はタッチパネル部151からの情報を元に、ユーザーがタッチパネル部151にタッチしたか否かを判定する。タッチした場合は、ステップS210に進む。タッチしていない場合は、ステップS211に進む。
ステップS209でタッチ操作が検出される一例として、追尾AFエリア501aに対応する追尾領域が被写体から外れてしまい、ユーザーが被写体を指定し直すべくタッチした場合が考えられる。本来は図6(a)のように、追尾領域(不図示)がユーザーの所望の位置(図6(a)の場合は被写体の顔部分)に設定され、対応する位置に追尾AFエリア501aが設定される状態が理想的である。しかしながら、被写体の移動速度によっては、図6(b)のように、追尾領域(不図示)が被写体から外れてしまったために、対応する追尾AFエリア501bが被写体から外れてしまう場合がある。あるいは図6(c)のように、追尾領域(不図示)と追尾AFエリア501cが被写体に合っていても、ユーザーが所望する位置から外れてしまう場合がある。図6(c)では、追尾領域(不図示)ユーザーの所望する顔部分から外れ、胴体部分に設定されてしまったため、追尾AFエリア501cも胴体部分に設定されてしまっているが。図6(b)および(c)のように追尾領域(不図示)に対応する追尾AFエリア501b、501cがユーザーの所望の位置から外れ、ユーザーがタッチ操作により追尾領域を変更しようとした場合には、ステップS209でタッチ操作が検出される。
ステップS210では、撮像装置100は、図5に示すフローチャートにしたがっ追尾領域の設定を行う。詳しくは後述する。
ステップS211では、システム制御部120はレリーズスイッチ135から出力される信号を元に、レリーズスイッチ135が半押しされたか否かを判定する。半押しされた場合、ステップS212に進む。半押しされていない場合、ステップS205に進む。
ステップS212では、画像演算部129はA/D変換部122からの信号を元に、追尾AFエリアのデフォーカス量を算出する。
ステップS213では、レンズ制御部204はシステム制御部120からの情報(ステップS212において取得したデフォーカス量)を元に、撮影レンズ210のフォーカシングを制御し、AF動作を行う。
ステップS214では、システム制御部120はレリーズスイッチ135から出力される信号を元に、レリーズボタンが全押しされたか否かを判定する。全押しされた場合、ステップS216に進む。全押しされていない場合、ステップS215に進む。
ステップS215では、システム制御部120はレリーズスイッチ135から出力される信号を元に、レリーズボタンの半押しが継続されているか否かを判定する。半押しが継続されている場合、ステップS212に戻る。半押しが継続されていない場合、ステップS205に戻る。
ステップS216では、撮像装置100はシステム制御部120およびカメラ制御部140の制御によってシャッター144を駆動し、撮像素子121を露光させ、撮像動作を行い外部着脱メモリ部130への記録を行う。撮影が終わると、ステップS201へと戻り、追尾AFモードが終了するまで本フローが繰り返される。
[追尾領域設定フロー(図5)]
続いて、図5のフローチャートを参照して、実施例1に係る撮像装置100の追尾AFモード中にユーザーによるタッチ操作を検出した場合の、追尾領域設定の処理動作について説明する。
ステップS101では、画像演算部129はタッチ位置に対応する撮像素子121上の画素部から出力され、A/D変換部122でA/D変換された信号を元にタッチ位置のデフォーカス量を算出する。
ステップS102では、システム制御部120はステップS205にてメモリ127に保存した追尾被写体のデフォーカス量を読み出し、ステップS101にて算出したタッチ位置のデフォーカス量との差分を算出する。読み出した追尾AFエリア501のデフォーカス量をD_object(t=ti)、タッチ位置のデフォーカス量をD_touchとすれば、デフォーカス量の差分ΔDは、
ΔD=|D_object(t=ti)−D_touch|
により算出することができる。
ただし、ステップS205で算出した追尾AFエリア501のデフォーカス量は、必ずしも追尾対象である被写体のデフォーカス量とは一致しない可能性がある。追尾AFエリア501に対応する被写体が、追尾領域の位置の変更により、ユーザーの追尾したい被写体から別の被写体に変わってしまう場合があるためである。図6(a)から図6(b)のように、追尾領域の位置が追尾したい被写体から異なる場所に移ってしまったことに伴い追尾AFエリア501の位置が変わってしまった場合には、追尾AFエリア501のデフォーカス量は被写体のデフォーカス量とは一致しない。
なお、図6(a)のように追尾領域が被写体を追尾できている場合の追尾AFエリア501を追尾AFエリア501aとして説明する。一方、図6(b)のように追尾領域が追尾したい被写体とは異なる場所に変わってしまった場合の、追尾領域に対応する追尾AFエリア501を追尾AFエリア501bとして説明する。
そこで、システム制御部120によって追尾AFエリア501のデフォーカス量の時間変化を算出し、大きな時間変化があった場合には、それ以前のデフォーカス量を読み出すようにしても良い。例えば、D_object(t)の時間微分をd/dt D_object(t)とし、時間変化の閾値をdthとする。このとき、
|d/dt D_object(t)|>dth
を満たすt=txが存在する場合には、システム制御部120はt=tx以前のデフォーカス量をメモリ127から読み出すようにしても良い。このようにすれば、追尾領域が被写体から外れる以前の、追尾AFエリア501aにおけるデフォーカス量を読み出すことができる。
[ユーザーが被写体をタッチできているかどうかの判定(S103)]
ステップS103では、システム制御部120はステップS102で算出したデフォーカス量の差分ΔDが、差分の閾値ΔDth(第1の所定値)未満であるか否かを判定する。メモリ127から読み出した追尾AFエリア501が追尾していた被写体とステップS209でタッチを検出した際にタッチした被写体が同じ被写体であれば、デフォーカス量の差分ΔDが差分の閾値ΔDth未満になるように閾値ΔDthを設定する。
デフォーカス量の差分ΔDが閾値ΔDth未満(第1の所定値未満)である場合、ステップS104に進む。デフォーカス量の差分ΔDが閾値ΔDth以上(第1の所定値以上)である場合、ステップS105に進む。
ここで図6(d)(e)を参照して、ステップS103におけるデフォーカス量の差分ΔDが大きくなる場合、および小さくなる場合について説明する。ユーザーが移動する被写体に対してタッチ操作を行った場合、正しく被写体にタッチした様子を示しているのが図6(d)である。この場合、メモリ127から読み出した追尾AFエリア501のデフォーカス量D_object(t=ti)と、タッチ位置のデフォーカス量D_touchの差分は閾値ΔDth未満になる。つまり、差分ΔDが差分の閾値ΔDth未満である場合には、ユーザーは追尾AFエリア501aと対応する追尾領域で追尾していた被写体と同じ被写体にタッチすることができているため、追尾領域をタッチ位置に移動させることがユーザーにとって望ましい。
一方で、図6(e)のように被写体から外れた位置にタッチしてしまった場合には、デフォーカス量の差分ΔDは大きくなる。この場合には、追尾AFエリアをタッチ位置に移動ささせてしまうと、ユーザーが追尾したいと意図している被写体を追尾することができなくなってしまう。上記を踏まえて、ステップS104以降の説明を行う。
ステップS104では、システム制御部120はタッチ位置に追尾領域を移動する。上記で説明したように、ステップS104に進んだ場合は被写体位置に正しくタッチしている可能性が高いためである。タッチ位置に追尾領域が設定されると、システム制御部120は追尾AFエリア501も対応する位置に設定する。
ステップS103でNoと判定された場合は、ユーザーが移動する被写体にタッチ操作を行おうとして、誤って被写体から外れた位置にタッチしてしまった可能性がある。この場合には、タッチ位置ではなく、被写体が存在する位置に追尾領域を設定することが望ましい。一方、その他の可能性として、ユーザーが移動する被写体とは別の、第二の被写体に追尾領域を設定しようとしてタッチした場合も考えられる(図6(f))。この場合には、タッチ位置に追尾領域を設定することが望ましい。以下のステップS105〜S106は、ユーザーが第二の被写体に追尾領域を合わせようとした場合を検出するための判定である。
[ユーザーが第二の被写体に追尾領域を設定しようとしたかどうかの判定(S105・S106)]
ステップS105では、システム制御部120は、タッチ位置の座標と、追尾AFエリア501aの座標(又は対応する追尾領域の座標)を用いて二点間の距離を算出し、算出した値が閾値(第1の距離)未満であるか否かを判定する。閾値未満(第1の距離未満)である場合、ステップS106に進む。閾値以上(第1の距離以上)である場合には、追尾AFエリア501a(及び対応する追尾領域)から十分離れた位置にタッチしているため、ユーザーが移動する被写体とは別の第二の被写体にタッチを行ったと判定して、ステップS104に進む。
ステップS106では、システム制御部120は、顔検出部153、および人体検出部155の情報を元に、撮像画像内でタッチ位置に対応する箇所が、顔もしくは人体であるか否かを判定する。顔もしくは人体ではない場合、ステップS107に進む。顔もしくは人体である場合には、ユーザーが移動する被写体とは別の第二の被写体の顔、もしくは人体にタッチを行っていると考えられる。このことから、そのタッチ位置に追尾領域を合わせることが望ましい。したがって、ステップS104に進む。
ステップS105、S106の判定条件の他にも、タッチ操作前後でのタッチ位置のデフォーカス変化量を判定条件に加えても良い。例えば、ユーザーが移動する被写体にタッチしようとして、被写体の移動方向に対して後ろ側にタッチしてしまった場合、デフォーカス量の変化はタッチ前後で大きくなることが多い。タッチ位置のデフォーカス量を考えると、タッチ前は、移動する被写体が存在するのに対し、タッチ後は移動する被写体が通り過ぎ、その陰に隠れていたものが出現するためである。陰から出現したものと、移動する被写体とは、撮像装置100からの距離が異なる。すなわち、タッチ操作の前後で、デフォーカス量は変化する。したがってタッチ位置のデフォーカス変化量が閾値未満である場合に、ステップS104に戻るようなフローとしても良い。
以下、ステップS107〜S115は、タッチ位置に存在しなかった被写体を探索するためのフローである。ステップS107に進んだ場合は、被写体位置から外れた位置にタッチしてしまった可能性が高い。そこで、タッチ位置を起点として、被写体の存在する確率が高い領域(後述するサーチ領域)についてデフォーカス量を取得し、追尾AFエリア501aのデフォーカス量D_object(t=ti)と比較する。被写体の存在する確率が高い領域と追尾AFエリア501aのデフォーカス量の差分が小さくなる箇所があれば、その箇所が被写体である可能性が高い。以上を踏まえ、ステップS107以降の説明を行う。
[被写体サーチ領域の設定(S107〜S111)]
ステップS107では、システム制御部120(方向取得手段)はステップS206(図4)で取得した、追尾AFエリア501aに対応する被写体の動きベクトルの情報をメモリ127から読み出す。
ステップS108では、システム制御部120(予測手段)は、ステップS107で読み出した動きベクトルの情報を元に、被写体の位置を算出する。
ステップS109では、システム制御部120(動体判定手段)は、被写体がタッチ位置から遠ざかっているか、近付いているかを判定する。当該判定には、ステップS107で取得した被写体の移動方向の情報と、ステップS108で算出した被写体位置の情報と、タッチパネル部151から取得したタッチ位置の情報を用いる。被写体がタッチ位置から遠ざかっているとシステム制御部120が判定した場合は、ステップS110に進む。近付いている(遠ざかっていない)とシステム制御部120が判定した場合は、ステップS111に進む。
ここで図6(g)(h)を参照して、被写体がタッチ位置から遠ざかっている場合、および近付いている場合について説明する。ユーザーが、移動する被写体から外れた位置にタッチしてしまった場合の例として、以下の二例が挙げられる。すなわち、被写体の移動方向に対して、被写体より後ろ側にタッチしてしまう例(図6(g))と、被写体より前側にタッチしてしまう例(図6(h))である。
図6(g)のように、被写体より後ろ側にタッチしてしまった場合には、被写体がタッチ位置から遠ざかっていく。この場合、被写体はタッチ位置から被写体の移動方向側にずれた位置に存在する。したがって、タッチ位置を起点として、被写体の移動方向の反対の方向と比較して被写体の移動方向に向かって広く、被写体サーチ領域502を設定する。取得したデフォーカス量を追尾AFエリア501aのデフォーカス量D_object(t=ti)と比較していけば、デフォーカス量の差分が小さい領域、すなわち被写体が存在する領域を見つけることができる。
一方、図6(h)のように、被写体より前側にタッチしてしまった場合には、被写体がタッチ位置に近付いてくる。この場合、被写体はタッチ位置から被写体の移動方向とは反対側にずれた位置に存在する。したがって、タッチ位置を起点として、被写体の移動方向と比較して被写体の移動方向とは反対の方向に向かって広く、被写体サーチ領域502を設定する。これによって、同様にデフォーカス量の差分が小さい領域、すなわち被写体が存在する領域を見つけることができる。
なお、被写体サーチ領域502の大きさは、被写体の動きに応じて変えても良い。例えば、システム制御部120によって動体検知部154から(図6aのときの)被写体の移動速度を読み出し、被写体の移動速度に応じて被写体サーチ領域502の大きさを変更するようにしても良い。被写体が高速であるほど、ユーザーが移動する被写体にタッチするとき、タッチ位置が被写体から大きくずれる可能性が高くなる。そこで、例えば、被写体の移動速度が所定の速度(第1の速度)以上である場合には、被写体の移動速度が所定の速度(第1の速度)未満である場合(例えば図6(i))と比較して被写体サーチ領域を広範囲に設定する(例えば図6(j))。これにより、被写体の移動速度が高速である場合でも被写体が被写体サーチ領域502から外れることを防ぐことができることから、後のステップS114において被写体を見つけることができるという効果がある。
その他、被写体の大きさ、被写体の顔の大きさ、に応じて被写体サーチ領域502の大きさを変更することができる。
また、タッチ面積に応じて被写体サーチ領域502の大きさを変更するようにしても良い。タッチ面積が大きい場合は、ユーザーがタッチ操作によって捉えることが難しい移動速度や動きをしている被写体を指定するために、タッチ面積を大きくすることで被写体が存在するおおよその領域を指定したと考えることができる。そこで、タッチ面積が大きい場合はタッチ面積が小さい場合と比較して、より広い被写体サーチ領域502を設定する。これにより、タッチ操作によって正確に捉えることが難しい被写体であっても、被写体が被写体サーチ領域502から外れることを防ぐことができることから、後のステップS114において被写体を見つけることができる。
ステップS110では、システム制御部120(サーチ領域設定手段)は、タッチ位置から被写体の移動方向へずれた位置に被写体サーチ領域502を設定する。上記で説明したように、ステップS110に進んだ場合は、タッチ位置から被写体の移動方向へずれた位置に被写体が存在する可能性が高い。したがって、この処理を行うことで、後のステップS114において被写体が見つかりやすくなる。
ステップS111では、システム制御部120は、タッチ位置から被写体位置の方向(被写体の移動方向と反対の方向)へずれた位置に被写体サーチ領域502を設定する。上記で説明したように、ステップS111に進んだ場合は、タッチ位置から被写体の移動方向とは反対側へずれた位置に被写体が存在する可能性が高い。したがって、ステップS110と同様、この処理を行うことで、後のステップS114において被写体が見つかりやすくなる。
[被写体のサーチ・追尾領域の設定(S112〜S117)]
ステップS112では、システム制御部120(分割手段)は、設定された被写体サーチ領域502を、複数のブロック503に分割する(図7)。このブロック分割処理は、複数のブロック503それぞれについてデフォーカス量を取得し、後のステップS116にて、被写体が存在する領域に追尾領域を設定するための処理である。1ブロックの大きさは撮像素子121上の1画素部に対応していても良いが、演算量を減らすために、数十〜数万画素部程度に対応するようにしても良い。
また、1ブロックの大きさは、ステップS110もしくはステップS111にて設定された被写体サーチ領域502の大きさに応じて設定するようにしても良い。例えば、被写体サーチ領域502が大きい場合には、演算量を減らすために、被写体サーチ領域502が小さい場合と比較してブロック503の1つ1つの大きさを小さくするようにしても良い。
また、1ブロックの大きさを、被写体の大きさに応じて設定するようにしても良い。
ステップS113では、画像演算部129(焦点検出手段)は、ステップS112にて設定された各ブロック503について、A/D変換部122からの信号を元にデフォーカス量を算出する。
ステップS114では、システム制御部120(差分算出手段)はステップS205にてメモリに保存した追尾被写体のデフォーカス量を読み出し、ステップS113にて算出した各ブロック503のデフォーカス量との差分を算出する。読み出した追尾AFエリア501aのデフォーカス量をD_object(t=ti)、各ブロック503のデフォーカス量をD_block(j)とすれば、各ブロックのデフォーカス量の差分ΔD(j)は、
ΔD(j)=|D_object(t=ti)−D_block(j)|
により算出することができる。
ステップS115では、システム制御部120はステップS114で算出した各ブロック503のデフォーカス量の差分ΔD(j)のうち、最小のものをminΔD(j)として検出する。そして、差分の最小値minΔD(j)が差分の閾値ΔDth(第1の所定値)未満であるか否かを判定する。差分の最小値minΔD(j)が閾値ΔDth未満(第1の所定値未満)である場合、ステップS116に進む。差分の最小値minΔD(j)が閾値ΔDth以上(第1の所定値以上)である場合(すなわち、差分ΔD(j)のうち第1の所定値以上のものが存在しない場合)、ステップS117に進む。
ステップS116では、システム制御部120は下記のようにして追尾領域の設定を行う。まず、デフォーカス量の差分ΔD(j)が閾値ΔDth未満となるブロックを検出する。ここで検出されたブロックの集合が被写体と推測される。したがって、図7のように、当該ブロック(斜線)の全てを包含し、かつその大きさが最小となる範囲を、推定被写体エリア504(図7)と呼ぶことにする。システム制御部120は、推定被写体エリア504に追尾領域を設定する。
ステップS117では、システム制御部120は追尾領域を追尾AFエリア501b(追尾AFエリア501cでも良い)に対応する追尾領域から変更しない(リセットした場合は、再設定する)。ステップS117に進んだ場合は、タッチ位置を起点とした周辺領域について、デフォーカス量の差分の比較を行っても被写体が見つからないということである。一方で、ステップS105、S106の判定が全てYesであることから、ユーザーが追尾領域を設定したかったのは、移動する被写体である可能性が高い。すなわち、ユーザーが移動する被写体を狙ってタッチ操作を行ったが、タッチ位置が外れてしまったという状態である。例えば図6(c)のように、追尾したい被写体を追尾してはいるが、追尾したい場所ではない胴体に追尾領域(不図示)と追尾AFエリアが設定されてしまった場合に、頭を追尾しようとしてタッチし直したものの、タッチ位置がずれてしまった場合が考えられる。この場合、タッチ位置よりも追尾AFエリア501cに対応する追尾領域の方がユーザーの意図した被写体に近いと考えられるため、追尾AFエリア501cに対応する追尾領域から追尾領域を変更しない(リセットした場合は、再設定する)。
なお、ステップS115では、ステップS114で算出した各ブロック503のデフォーカス量の差分ΔD(j)のうち、必ずしも最小のものに着目しなくても良い。例えば、単に差分ΔD(j)が第1の所定値未満であるものの有無を判定し、有る場合には、ステップS116で対応する複数のブロックを包含する領域に追尾領域を設定しても良い。
[実施例1による効果]
前述の通り、本実施例では、被写体の追尾中に追尾対象である被写体が、ユーザーの撮像装置への指示なく異なる被写体へと変わってしまった場合を想定している。このような場合に、ユーザーはタッチ操作によって再度追尾したい被写体を指定することが考えられる。しかしながら、単にステップS104のようにタッチ位置に追尾領域を移動してしまうと、ユーザーのタッチ位置が被写体から少しずれていた場合に、ユーザーの意図しない領域を追尾領域として設定してしまう。実施例1によれば、追尾中にタッチパネルへのタッチによって追尾する被写体を再指定する場合において、タッチが外れてしまった場合であっても、ユーザーが本来意図していた被写体を追尾することができる。
また、本実施例においてはステップS102やステップS114においてデフォーカス量同士を比較することで差分を求めているが、システム制御部120(距離検出手段)がデフォーカス量に基づいて距離情報を算出してから、距離情報同士を比較しても良い。これにより、ステップS103やステップS115の判定を、各デフォーカス量を取得した際のレンズ位置等の条件に影響されず、より正確に行うことができる。
[実施例2]
続いて実施例2について説明する。実施例2と実施例1との相違点は、図5におけるステップS117のみであり、それ以外は共通である。共通点については説明を省略する。
実施例2では、実施例1におけるステップS117の代わりにステップS317(不図示)を実行する。ステップS317では、図5のステップS104と同様の処理を行う。すなわち、ステップS209において検出したタッチ位置に追尾領域を移動する。
実施例2においても、実施例1におけるステップS105及びS106と同様の処理を行っているため、いずれかの判定においてNoと判定された場合は、ユーザーが第二の被写体を選択し直したと判断し、ステップS104へと進む。しかし、ステップS105及びS106でNoと判定されなかった場合であっても、ユーザーが第二の被写体を選択し直した場合が考えられる。例えば、第二の被写体が追尾AFエリアa(又は対応する追尾領域)とは所定の距離以上離れており、かつ被写体が人ではなく動物であるような場合である。このような場合であっても、ステップS317において上述のような処理を行うことにより、ユーザーの第二の被写体を新たに指定したいという意図を反映した追尾領域の設定を行うことができる。
以上のように、本実施例によれば、追尾中にタッチパネルへのタッチによって追尾する被写体を再指定する場合において、タッチが外れてしまった場合であっても、ユーザーが本来意図していた被写体を追尾することができる。
[その他]
なお、実施例1及び実施例2においては撮像素子121から取得した信号を用いて撮像面位相差式の焦点検出を行う場合、及び撮像画像のコントラスト値を算出し、コントラスト値から撮影画像の合焦状態を検出する場合ついて説明した。他にも、実施例1及び実施例2は、撮像素子121とは別途、焦点検出用の信号を取得するためのラインセンサやエリアセンサを有する公知の焦点検出部から取得した信号を用いて位相差式の焦点検出を行っても良い。
また、本発明は撮像装置に適用できるだけでなく、追尾装置にも適用できる。当該追尾装置は、画像記録時に画像の部分ごとに付加的に被写体距離情報やデフォーカス量も記録するようにしたシステムにおいて、上記の画像を再生しつつ前記被写体距離情報やデフォーカス量も取得する。これにより、再生画像中の特定の対象を、前記被写体距離情報に基づき追尾する。
また、本発明は上述の実施例の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み取り実行する処理でも実現できる。更に、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 撮像装置
120 システム制御部(サーチ領域設定手段、差分算出手段、分割手段、距離検出手段)
129 画像演算部(追尾手段、焦点検出手段)
151 タッチパネル部(タッチ検出手段)
154 動体検知部(動体検知手段)
501 追尾AFエリア
502 被写体サーチ領域
503 ブロック

Claims (14)

  1. 被写体に対応する領域である追尾領域と相関の高い領域を継続的に検出する追尾手段と、
    ユーザーによるタッチ操作を検出するタッチ検出手段と、
    デフォーカス量の算出を行う焦点検出手段と、
    被写体の動きを検出する動体検知手段と、
    前記動体検知手段の検出結果に応じて、前記タッチ操作を行ったタッチ位置を含む領域を、特定の被写体をサーチするためのサーチ領域として設定するサーチ領域設定手段と、
    前記サーチ領域設定手段が設定した前記サーチ領域を複数のブロックに分割する分割手段と、
    前記複数のブロックそれぞれについて前記焦点検出手段が算出したデフォーカス量と過去に追尾していた被写体のデフォーカス量との差分を算出する差分算出手段と、を有し、
    前記差分算出手段が算出した前記複数のブロックそれぞれについて前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が、第1の所定値未満であるブロックがある場合は、前記追尾手段は前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満であるブロックを含む領域を追尾領域として設定し、
    前記複数のブロックそれぞれについて前記焦点検出手段が算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満のブロックがない場合には、前記追尾手段は追尾領域を変更しないことを特徴とする撮像装置。
  2. 前記タッチ操作を行ったタッチ位置から被写体が遠ざかっているか否かを判定する動体判定手段を有し、
    前記動体検知手段は被写体のベクトル情報を取得し、
    前記動体判定手段は、過去に追尾していた被写体の動きベクトル情報に基づいて前記タッチ操作を行ったタッチ位置から被写体が遠ざかっているか否かを判定し、
    被写体が前記タッチ位置から遠ざかっていると前記動体判定手段が判定した場合には、前記サーチ領域設定手段は前記タッチ位置を起点にとして被写体の移動方向の反対の方向よりも被写体の移動方向へと広く前記サーチ領域を設定し、
    被写体が前記タッチ位置から遠ざかっていないと前記動体判定手段が判定した場合には、前記サーチ領域設定手段は前記タッチ位置を起点として被写体の移動方向の反対の方向よりも被写体の移動方向へと広く前記サーチ領域を設定することを特徴とする請求項1に記載の撮像装置。
  3. 前記動体検知手段は被写体の移動速度を検出し、
    前記サーチ領域設定手段は、前記過去に追尾していた被写体の移動速度が第1の所定値よりも大きい場合には、前記第1の所定値よりも小さい場合と比較して、前記サーチ領域の範囲をより大きく設定することを特徴とする請求項1又は請求項2に記載の撮像装置。
  4. 被写体に対応する領域である追尾領域と相関の高い領域を継続的に検出する追尾手段と、
    ユーザーによるタッチ操作を検出するタッチ検出手段と、
    距離情報の検出を行う焦点検出手段と、
    被写体の動きを検出する動体検知手段と、
    前記動体検知手段の検出結果に応じて、前記タッチ操作を行ったタッチ位置を含む領域を、特定の被写体をサーチするためのサーチ領域として設定するサーチ領域設定手段と、
    前記サーチ領域設定手段が設定した前記サーチ領域を複数のブロックに分割する分割手段と、
    前記複数のブロックそれぞれについて前記焦点検出手段が検出した距離情報と過去に追尾していた被写体の距離情報との差分を算出する差分算出手段と、を有し、
    前記差分算出手段が算出した前記複数のブロックそれぞれについて前記焦点検出手段が検出した距離情報と前記過去に追尾していた被写体の距離情報との差分が、第1の所定値未満であるブロックがある場合は、前記追尾手段は前記焦点検出手段が検出した距離情報と前記過去に追尾していた被写体の距離情報との差分が第1の所定値未満であるブロックを含む領域を追尾領域として設定し、
    前記複数のブロックそれぞれについて前記焦点検出手段が検出した距離情報と前記過去に追尾していた被写体の距離情報との差分が第1の所定値未満のブロックがない場合には、前記追尾手段は追尾領域を変更しないことを特徴とする撮像装置。
  5. 前記タッチ操作を行ったタッチ位置から被写体が遠ざかっているか否かを判定する動体判定手段を有し、
    前記動体検知手段は被写体のベクトル情報を取得し、
    前記動体判定手段は、過去に追尾していた被写体の動きベクトル情報に基づいて前記タッチ操作を行ったタッチ位置から被写体が遠ざかっているか否かを判定し、
    被写体が前記タッチ位置から遠ざかっていると前記動体判定手段が判定した場合には、前記サーチ領域設定手段は前記タッチ位置を起点にとして被写体の移動方向の反対の方向よりも被写体の移動方向へと広く前記サーチ領域を設定し、
    被写体が前記タッチ位置から遠ざかっていないと前記動体判定手段が判定した場合には、前記サーチ領域設定手段は前記タッチ位置を起点として被写体の移動方向の反対の方向よりも被写体の移動方向へと広く前記サーチ領域を設定することを特徴とする請求項4に記載の撮像装置。
  6. 被写体に対応する領域である追尾領域と相関の高い領域を継続的に検出する追尾ステップを有する撮像装置の制御方法において、
    ユーザーによるタッチ操作を検出するタッチ検出ステップと、
    デフォーカス量の算出を行う焦点検出ステップと、
    被写体の動きを検出する動体検知ステップと、
    前記動体検知ステップの検出結果に応じて、前記タッチ操作を行ったタッチ位置を含む領域を、特定の被写体をサーチするためのサーチ領域として設定するサーチ領域設定ステップと、
    前記サーチ領域設定ステップで設定した前記サーチ領域を複数のブロックに分割する分割ステップと、
    前記複数のブロックそれぞれについて前記焦点検出ステップで算出したデフォーカス量と過去に追尾していた被写体のデフォーカス量との差分を算出する差分算出ステップと、を有し、
    前記差分算出ステップで算出した前記複数のブロックそれぞれについて前記焦点検出ステップで算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が、第1の所定値未満であるブロックがある場合は、前記追尾ステップでは前記焦点検出ステップで算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満であるブロックを含む領域を追尾領域として設定し、
    前記複数のブロックそれぞれについて前記焦点検出ステップで算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満のブロックがない場合には、前記追尾ステップは追尾領域を変更しないことを特徴とする撮像装置の制御方法。
  7. 請求項6に記載の撮像装置の制御方法における各ステップをコンピュータによって実行させるためのプログラム。
  8. 請求項7に記載のプログラムをコンピュータで読み取ることができるように記憶する記憶媒体。
  9. 所定の対象を追尾するために、画面中の第1の追尾領域と相関の高い領域を第2の追尾領域として自動的に変更する追尾手段と、
    ユーザーによる画面へのタッチ操作を検出するタッチ検出手段と、
    前記タッチ操作を行った画面のタッチ位置に基づき前記所定の対象をサーチするためのサーチ領域を設定するサーチ領域設定手段と、を有し、
    前記追尾手段は、前記サーチ領域設定手段によって設定されたサーチ領域のデフォーカス量と前記第1の追尾領域のデフォーカス量との差分を算出し、前記差分が所定値より小さい場合は、前記サーチ領域の少なくとも一部を前記第2の追尾領域として設定し、前記差分が所定値より大きい場合は、前記サーチ領域を第2の追尾領域として設定しないように制御することを特徴とする追尾装置。
  10. 前記デフォーカス量は画像の部分ごとに付加的に記録された情報であることを特徴とする請求項9記載の追尾装置。
  11. 請求項9に記載の追尾装置の各手段の動作をコンピュータによって実行させるためのプログラム。
  12. 請求項11に記載のプログラムをコンピュータで読み取ることができるように記憶する記憶媒体。
  13. 被写体に対応する領域である追尾領域と相関の高い領域を継続的に検出する追尾ステップと、
    ユーザーによるタッチ操作を検出するタッチ検出ステップと、
    デフォーカス量の算出を行う焦点検出ステップと、
    被写体の動きを検出する動体検知ステップと、
    前記動体検知ステップでの検出結果に応じて、前記タッチ操作を行ったタッチ位置を含む領域を、特定の被写体をサーチするためのサーチ領域として設定するサーチ領域設定ステップと、
    前記サーチ領域設定ステップで設定した前記サーチ領域を複数のブロックに分割する分割ステップと、
    前記複数のブロックそれぞれについて前記焦点検出ステップが算出したデフォーカス量と過去に追尾していた被写体のデフォーカス量との差分を算出する差分算出ステップと、を有し、
    前記差分算出ステップで算出した前記複数のブロックそれぞれについて前記焦点検出ステップで算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が、第1の所定値未満であるブロックがある場合は、前記追尾ステップで前記焦点検出ステップで算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満であるブロックを含む領域を追尾領域として設定し、
    前記複数のブロックそれぞれについて前記焦点検出ステップで算出したデフォーカス量と前記過去に追尾していた被写体のデフォーカス量との差分が第1の所定値未満のブロックがない場合には、前記追尾ステップで追尾領域を変更しないことを特徴とする撮像装置の制御方法。
  14. 所定の対象を追尾するために、画面中の第1の追尾領域と相関の高い領域を第2の追尾領域として自動的に変更する追尾ステップと、
    ユーザーによる画面へのタッチ操作を検出するタッチ検出ステップと、
    前記タッチ操作を行った画面のタッチ位置に基づき前記所定の対象をサーチするためのサーチ領域を設定するサーチ領域設定ステップと、
    前記追尾ステップでは、前記サーチ領域設定ステップによって設定されたサーチ領域のデフォーカス量と前記第1の追尾領域のデフォーカス量との差分を算出し、前記差分が所定値より小さい場合は、前記サーチ領域の少なくとも一部を前記第2の追尾領域として設定し、前記差分が所定値より大きい場合は、前記サーチ領域を第2の追尾領域として設定しないように制御することを特徴とする追尾装置の制御方法。
JP2016023892A 2016-02-10 2016-02-10 撮像装置、その制御方法、プログラム及び記憶媒体 Active JP6702746B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016023892A JP6702746B2 (ja) 2016-02-10 2016-02-10 撮像装置、その制御方法、プログラム及び記憶媒体
US15/426,877 US10163222B2 (en) 2016-02-10 2017-02-07 Image capturing apparatus, tracking device, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016023892A JP6702746B2 (ja) 2016-02-10 2016-02-10 撮像装置、その制御方法、プログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2017143431A JP2017143431A (ja) 2017-08-17
JP6702746B2 true JP6702746B2 (ja) 2020-06-03

Family

ID=59496607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016023892A Active JP6702746B2 (ja) 2016-02-10 2016-02-10 撮像装置、その制御方法、プログラム及び記憶媒体

Country Status (2)

Country Link
US (1) US10163222B2 (ja)
JP (1) JP6702746B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7172601B2 (ja) * 2016-11-25 2022-11-16 ソニーグループ株式会社 フォーカス制御装置とフォーカス制御方法とプログラムおよび撮像装置
US10863079B2 (en) * 2017-07-13 2020-12-08 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
CN107742303B (zh) * 2017-09-29 2021-05-25 南京阿凡达机器人科技有限公司 一种基于机器人的目标图像显示处理方法及系统
JP7406880B2 (ja) * 2019-04-10 2023-12-28 キヤノン株式会社 画像処理装置、その制御方法及びプログラム
JP7433788B2 (ja) * 2019-07-03 2024-02-20 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム
JP7379083B2 (ja) * 2019-10-24 2023-11-14 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム
CN111696134B (zh) * 2020-06-03 2023-05-23 阿波罗智联(北京)科技有限公司 一种目标检测方法、装置以及电子设备
US11381730B2 (en) * 2020-06-25 2022-07-05 Qualcomm Incorporated Feature-based image autofocus

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2873338B2 (ja) * 1991-09-17 1999-03-24 富士通株式会社 動物体認識装置
JP3727954B2 (ja) * 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6191773B1 (en) * 1995-04-28 2001-02-20 Matsushita Electric Industrial Co., Ltd. Interface apparatus
US8228305B2 (en) * 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
JPH1091795A (ja) * 1996-09-12 1998-04-10 Toshiba Corp 移動物体検出装置及び移動物体検出方法
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US20080088587A1 (en) * 2001-02-22 2008-04-17 Timothy Pryor Compact rtd instrument panels and computer interfaces
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
AU2003301043A1 (en) * 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
JP3847753B2 (ja) * 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP3746060B2 (ja) * 2004-07-20 2006-02-15 コナミ株式会社 ゲーム装置、コンピュータの制御方法及びプログラム
US8144121B2 (en) * 2006-10-11 2012-03-27 Victor Company Of Japan, Limited Method and apparatus for controlling electronic appliance
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
JP4968929B2 (ja) * 2007-07-20 2012-07-04 キヤノン株式会社 画像処理装置及び画像処理方法
CA2699628A1 (en) * 2007-09-14 2009-03-19 Matthew Bell Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
US8115877B2 (en) * 2008-01-04 2012-02-14 International Business Machines Corporation System and method of adjusting viewing angle for display based on viewer positions and lighting conditions
US8340432B2 (en) * 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
TW201138437A (en) * 2010-04-30 2011-11-01 Hon Hai Prec Ind Co Ltd System and method for remotely switching TV channels
JP2012015889A (ja) * 2010-07-02 2012-01-19 Sony Corp 画像処理装置および画像処理方法
JP5888986B2 (ja) 2012-01-06 2016-03-22 キヤノン株式会社 画像処理装置およびその制御方法
US9916009B2 (en) * 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
JP5562479B2 (ja) * 2013-10-04 2014-07-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2015111226A (ja) * 2013-12-06 2015-06-18 キヤノン株式会社 被写体追跡装置及びその制御方法、撮像装置、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
US20170228887A1 (en) 2017-08-10
JP2017143431A (ja) 2017-08-17
US10163222B2 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
JP6702746B2 (ja) 撮像装置、その制御方法、プログラム及び記憶媒体
US8525923B2 (en) Focusing method and apparatus, and recording medium for recording the method
US9380200B2 (en) Image pickup apparatus and control method in which object searching based on an image depends on pixel combining on the image
JP2009199049A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP5499432B2 (ja) 撮像装置
JP5056168B2 (ja) 焦点調節装置および撮像装置
JP2007101907A (ja) オートフォーカス制御装置およびこのオートフォーカス制御装置を用いた画像形成装置、並びにオートフォーカス制御方法
JP4871231B2 (ja) 撮像装置および撮像方法
JP2017037103A (ja) 撮像装置
US8600226B2 (en) Focusing methods and apparatus, and recording media for recording the methods
JP2017126915A (ja) 撮像装置
JP2012226206A (ja) 画像追尾装置および撮像装置
JP2011107501A (ja) 焦点調節装置、および、撮像装置
JP2009105851A (ja) 撮像装置、その制御方法およびプログラム
JP2009010672A (ja) 焦点検出装置および撮像装置
JP2001290072A (ja) 測距装置
JP2010107724A (ja) 撮影装置
JP2010107725A (ja) 撮影装置
JP2015167310A (ja) 撮像装置及び撮像方法
JP5062095B2 (ja) 撮像装置
JP5256847B2 (ja) 撮像装置
JP2015111226A (ja) 被写体追跡装置及びその制御方法、撮像装置、プログラム、並びに記憶媒体
JP5871196B2 (ja) 焦点調節装置、および、撮像装置
JP2013242408A (ja) 撮像装置およびその制御方法
KR20120068696A (ko) 촬상 장치 및 촬상 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6702746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151