JP2012163940A - 撮像装置、撮像方法、及び撮像プログラム - Google Patents

撮像装置、撮像方法、及び撮像プログラム Download PDF

Info

Publication number
JP2012163940A
JP2012163940A JP2011217683A JP2011217683A JP2012163940A JP 2012163940 A JP2012163940 A JP 2012163940A JP 2011217683 A JP2011217683 A JP 2011217683A JP 2011217683 A JP2011217683 A JP 2011217683A JP 2012163940 A JP2012163940 A JP 2012163940A
Authority
JP
Japan
Prior art keywords
subject
tracking
imaging
distance
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011217683A
Other languages
English (en)
Inventor
Kazuya Niyagawa
和也 二矢川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011217683A priority Critical patent/JP2012163940A/ja
Priority to EP12736267.1A priority patent/EP2666046A4/en
Priority to CN201280005324.3A priority patent/CN103314321B/zh
Priority to US13/978,574 priority patent/US20130293768A1/en
Priority to PCT/JP2012/051138 priority patent/WO2012099226A1/en
Publication of JP2012163940A publication Critical patent/JP2012163940A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/285Systems for automatic generation of focusing signals including two or more different focus detection devices, e.g. both an active and a passive focus detecting device
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

【課題】測距センサとして2次元センサを用いた場合であっても、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止する。
【解決手段】撮像装置において、被写体を撮像する撮像素子を含む撮像手段と、前記撮像手段に含まれる光学系を駆動させて、前記被写体の像を前記撮像素子の受光部に入力し、前記撮像手段から得られた画像に基づいてオートフォーカス評価値を取得して合焦制御を行う合焦制御手段と、複数の2次元センサを用いて前記被写体までの距離を測定する測距手段とを有し、前記合焦制御手段は、前記被写体の位置が前記測距手段による測距可能エリア外にある場合に前記合焦制御を行うことにより、上記課題を解決する。
【選択図】図7

Description

本発明は、撮像装置、撮像方法、及び撮像プログラムに係り、特に2次元測距センサを用いた場合であっても、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止するための撮像装置、撮像方法、及び撮像プログラムに関する。
従来、外測用式の測距装置及び測光装置として、例えば測距用に1対のラインセンサを用い、測光用に多分割センサを用いる方式が知られている。上述した測距用の1対のラインセンサは、1対のレンズと組み合わせることで2台のカメラを構成し、2台のカメラの被写体のずれ(視差)を検出して、三角測量の原理で距離を計測する。
ここで、従来では、例えば1つの半導体チップ上に、測距用の1対のラインセンサと測光用のサイズの大きいセンサとが形成され、1チップ上にそれぞれのセンサの中心線をずらして配置することにより、半導体のチップサイズを小さくできるため、測距装置及び測光装置の小型化を実現した技術が開示されている(例えば、特許文献1参照)。
また、従来では、ラインセンサを用いた多点外部AF(Auto Focus)と内部多点AF(コントラストAF)とを併用した、所謂ハイブリッドAFと呼ばれる自動合焦装置を利用したカメラの技術が開示されている(例えば、特許文献2参照)。なお、上記コントラストAFとは、所謂CCD等を用いた山登り方式によるAFを意味している。
しかしながら、上述した特許文献1及び2に開示されているような従来方法は、ラインセンサで測距を行うため、視野の中心部だけしか測距することができず、画面全体にわたる測距(多点測距)はできない。
また、上記課題を解決するために、例えば測距センサとして広範囲な測距を実現する2次元センサを用いる場合には、画面全体にわたって広範囲に測距するため、例えばズーム時の場合に主レンズの撮影エリアと測距センサの測距可能エリアとの画角が合わなくなり、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうという2次元センサを利用した場合の特有の課題が生じてしまう。
本発明は、上記の課題に鑑みてなされたものであり、測距センサとして2次元センサを用いた場合であっても、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止するための撮像装置、撮像方法、及び撮像プログラムを提供することを目的とする。
上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
本発明は、撮像装置において、被写体を撮像する撮像素子を含む撮像手段と、前記撮像手段に含まれる光学系を駆動させて、前記被写体の像を前記撮像素子の受光部に入力し、前記撮像手段から得られた画像に基づいてオートフォーカス評価値を取得して合焦制御を行う合焦制御手段と、複数の2次元センサを用いて前記被写体までの距離を測定する測距手段とを有し、前記合焦制御手段は、前記被写体の位置が前記測距手段による測距可能エリア外にある場合に前記合焦制御を行うことを特徴とする。
また、本発明は、撮像方法において、撮像素子を含む撮像手段により被写体を撮像する撮像ステップと、前記撮像手段に含まれる光学系を駆動させて、前記被写体の像を前記撮像素子の受光部に入力し、前記撮像手段から得られた画像に基づいてオートフォーカス評価値を取得して合焦制御を行う合焦制御ステップと、複数の2次元センサを用いて前記被写体までの距離を測定する測距ステップとを有し、前記合焦制御ステップは、前記被写体の位置が前記測距手段による測距可能エリア外にある場合に前記合焦制御を行うことを特徴とする。
また、本発明は、コンピュータを、上述した撮像装置が有する各手段として機能させるための撮像プログラムである。
本発明によれば、測距センサとして2次元センサを用いた場合であっても、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止することができる。
本実施形態における撮像装置の外観の一例を示す図である。 本実施形態における撮像装置の内部システム構成の一例を示す図である。 CPUブロックの機能構成の一例を示す図である。 撮像装置の動作手順の一例を示すフローチャートである。 AFエリアの一例を説明するための図である。 追尾AF時におけるAFエリアの一例を説明するための図である。 追尾AF処理手順の一例を示すフローチャートである。 測距方式の一例を説明するための図である。 実施例1における追尾AF処理手順の一例を示すフローチャートである。 実施例2における追尾AF処理手順の一例を示すフローチャートである。 WIDEモード時における測距可能エリアの一例を示す図である。 実施例3における追尾AF処理手順の一例を示すフローチャートである。 実施例4における追尾AF処理手順の一例を示すフローチャートである。 測距結果の推定手法の一例を説明するための図である。 実施例5における追尾AF処理手順の一例を示すフローチャートである。
<本発明について>
本発明は、例えば、撮像装置における測距センサとして2次元センサを用いた場合であっても、コントラストAFを併用することで、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止することができる。具体的には、例えば追尾AF時に測距センサから追尾被写体の測距情報を取得し、その情報に基づいて正確に被写体へのピント合わせを行うようにする。以下に、本発明における撮像装置、撮像方法、及び撮像プログラムを好適に実施した形態について、図面を用いて説明する。
<撮像装置:外観例>
まず、本実施形態における撮像装置について図を用いて説明する。図1は、本実施形態における撮像装置の外観の一例を示す図である。なお、図1(A)は、撮像装置の上面図の一例を示し、図1(B)は、撮像装置の正面図の一例を示し、図1(C)は、撮像装置の背面図の一例を示している。なお、以下に示す実施形態では、撮像装置の一例としてデジタルカメラを示すが本発明においては、これに限定されるものではなく、また形状や構成のレイアウト等についてもこれに限定されるものではなく、本発明の適用範囲に応じて任意に設定されるものである。
図1(A)〜図1(C)に示す撮像装置1は、サブ液晶ディスプレイ(以下、液晶ディスプレイ(Liquid Crystal Display)を「LCD」という)11と、メモリカード/電池装填部12と、ストロボ発光部13と、光学ファインダ14と、測距ユニット15と、リモコン受光部16と、AF補助光発光素子部17と、鏡胴ユニット18と、AF用LED19と、ストロボ用LED20と、LCDモニタ21と、スイッチ(以下、「SW」という)1〜14とを有するよう構成されている。
<撮像装置:内部システム構成例>
また、図2は、本実施形態における撮像装置の内部システム構成の一例を示す図である。図2に示す撮像装置1は、サブLCD11と、ストロボ発光部13と、測距ユニット15と、リモコン受光部16と、鏡胴ユニット18、AF用LED19と、ストロボ用LEDと、LCDモニタ21と、CCD(Charge Coupled Device)31と、F/E−IC32と、SDRAM(Synchronous Dynamic Random Access Memory)33と、デジタルスチルカメラプロセッサ(以下、「プロセッサ」という)34と、RAM35と、内蔵メモリ36と、ROM(Read Only Memory)37と、音声入力ユニット38と、音声再生ユニット39と、ストロボ回路40と、LCDドライバ41と、サブCPU(Central Processing Unit、中央演算装置)42と、操作キーユニット43と、ブザー44と、USB(Universal Serial Bus)コネクタ45と、シリアルドライバ回路46と、RS−232Cコネクタ47と、LCDドライバ48と、ビデオアンプ49と、ビデオジャック50と、メモリカードスロットル51と、メモリカード52とを有するよう構成されている。
また、図2において、鏡胴ユニット18は、例えば、ズームレンズ18−1a及びズームモータ18−1bからなるズーム光学系18−1と、フォーカスレンズ18−2a及びフォーカスモータ18−2bからなるフォーカス光学系18−2と、絞り18−3a及び絞りモータ18−3bからなる絞りユニット18−3と、メカシャッタ18−4a及びメカシャッタモータ18−4bからなるメカシャッタユニット18−4と、モータドライバ18−5とを有するよう構成されている。
また、図2において、F/E−IC(フロントエンド−集積回路)32は、画像ノイズの除去のために相関二重サンプリングを行うCDS(Correlated Double Sampling)32−1と、自動利得制御を行うAGC(Automatic Gain Control)32−2と、アナログ−デジタル変換を行うA/D変換部32−3と、垂直同期信号VD・水平同期信号HDに基づいて駆動タイミング信号を生成するTG(タイミングジェネレータ)32−4とを有するよう構成されている。
また、図2において、プロセッサ34は、シリアルブロック34−1、CCD1信号処理ブロック34−2、CCD2信号処理ブロック34−3、CPUブロック34−4、ローカルSRAM(Static Random Access Memory)34−5、USBブロック34−6、I2C(Inter Integrated Circuit)ブロック34−7、JPEG圧縮・伸長を行うJPEGコーデックブロック34−8、画像データのサイズを拡大・縮小するリサイズブロック34−9、TV信号表示ブロック34−10、メモリカードコントローラブロック34−11を有しており、これらの各ブロック34−1〜34−11は、バスラインを介して相互に接続されている。
また、図2において、音声入力ユニット38は、音声記録回路38−1と、マイクアンプ38−2と、マイク38−3とを有すように構成されている。また、図2において、音声再生ユニット39は、音声再生回路39−1と、オーディオアンプ39−2と、スピーカ39とを有するよう構成されている。
ここで、図1、図2における撮像装置1は、デジタルカメラとしての機能を有している。具体的には、図1(A)に示すように、撮像装置1の上部には、サブLCD11、レリーズスイッチ用のSW1、モードダイアル用のSW2が設けられている。
また、図1(B)に示すように、撮像装置1の側部には、撮影された画像データ等を格納するメモリカードや撮像装置1の電源をONして一連のシステムを駆動させるためのメモリカード/電池装填部12の蓋が設けられている。また、撮像装置1の正面側には、撮影時のストロボを発光させるストロボ発光部13、光学レンズを介して被写体の位置を視認する光学ファインダ14、測距ユニット15、別体のリモコン装置からの赤外線等によるリモコン信号を受光する受光部16、オートフォーカス(自動焦点)実行時に発光させるLED等からなるAF補助光発光素子部17、及び、撮影レンズを備えた鏡胴ユニット18が設けられている。
また、図1(C)に示すように、撮像装置1の背面側には、光学ファインダ14、AF用LED19、ストロボ用LED20、LCDモニタ21、広角ズーム(WIDE)スイッチ用のSW3、望遠ズーム(TELE)用のSW4、セルフタイマ設定/解除用のSW5、メニュー用のSW6、上移動/ストロボ設定用のSW7、右移動用のSW8、ディスプレイ用のSW9、下移動/マクロ設定用のSW10、左移動/画像確認用のSW11、OK用のSW12、クイックアクセス用のSW13、電源ON/OFF用のSW14が設けられている。
また、図2において、プロセッサ34は、CPUを内蔵しており、撮像装置1の各部はプロセッサ34によって制御されている。プロセッサ34の外部には、SDRAM33、RAM35、本実施形態における各種機能を実行させるための各種の制御プログラムやパラメータ等が格納されたROM37、撮影された画像の画像データを記憶する内蔵メモリ36が設けられており、これらもバスラインを介してプロセッサ34に接続されている。
SDRAM33には、撮影された画像の画像データから変換されたRAW−RGB画像データ(ホワイトバランス補正、γ補正が行われた画像データ)、YUV画像データ(輝度データと色差データとに変換された画像データ)、JPEG画像データ(JPEG圧縮された画像データ)が保存される。
電源スイッチ用のSW14をONにした際に、ROM37に格納された制御プログラムがプロセッサ34のメモリにロードされて実行され、撮像装置1の各部は、この制御プログラムによって制御される。
制御プログラムが実行される際には、RAM35のメモリが制御プログラムの作業用メモリとして使用されるので、RAM35のメモリには、制御プログラムの制御データやパラメータ等が随時書き込みや読み出しが行われる。後述される全ての処理は、この制御プログラムを実行することにより、主にプロセッサ34によって実行される。
鏡胴ユニット18は、ズームレンズ18−1a、フォーカスレンズ18−2a、絞り18−3a、メカシャッタ18−4aを、それぞれズームモータ18−1b、フォーカスモータ18−2b、絞りモータ18−3b、メカシャッタモータ18−4bによって駆動させる。また、鏡胴ユニット18は、これらの各モータ18−1b〜18−4bを、モータドライバ18−5によって駆動させる。モータドライバ18−5は、プロセッサ34のCPUブロック34−4によって制御される。
本実施形態では、上述した広角ズーム(WIDE)スイッチ用のSW3や望遠ズーム(TELE)用のSW4の操作等を行い、鏡胴ユニット18の各光学系18−1,18−2によりCCD31の受光部に被写体像を結像させる。結像された被写体像は、CCD31によって画像信号に変換され、この画像信号がF/E−IC32に出力される。
F/E−IC32において、CDS32−1は、取得した画像信号を相関二重サンプリングする。また、AGC32−2は、CDS32−1から得られる画像信号に対して自動的に利得の調整を行う。また、A/D変換部32−3は、AGC32−2から出力されるアナログ画像信号をデジタル画像信号に変換する。つまり、F/E−IC32は、CCD31から出力されたアナログ画像信号にノイズ低減の処理や利得調整の処理等の所定の処理を施し、更にアナログ画像信号をデジタル画像信号に変換して、プロセッサ34のCCD1信号処理ブロック34−2に出力する。
TG32−4は、プロセッサ34のCCD1信号処理ブロック34−2からフィードバックされるVD(垂直同期)・HD(水平同期)信号に基づいて、F/E−IC32による画像信号のサンプリング等のタイミング処理を行う。
プロセッサ34のCPUブロック34−4は、F/E−IC32、モータドライバ18−5、音声記録回路38−1、音声再生回路39−1、ストロボ発光部13を発光させるストロボ回路40、測距ユニット15、サブCPU42に接続されている。したがって、上述した各構成は、CPUブロック34−4によって制御される。
また、音声入力ユニット38及び音声再生ユニット39について説明すると、マイク38−3によって取り込まれた音声信号は、マイクアンプ38−2によって増幅され、音声記録回路38−1によってデジタル信号に変換されて、CPUブロック34−4の制御命令に基づいて、例えば内蔵メモリ36やメモリカード52等に記録される。また、音声再生回路39−1は、CPUブロック34−4の制御命令に基づいて、例えばROM37等に予め記録されている適宜の音声データを音声信号に変換し、オーディオアンプ39−2によって増幅し、スピーカ39−3から出力させる。
測距ユニット15は、例えば測距センサとしての2次元センサ等を有し、2次元センサ等を用いて撮像装置1の撮影エリアに含まれる所定の被写体までの距離を計測する。本実施形態では、後述するように2次元センサを用いた場合であっても、コントラストAFを併用することで、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止することができる。なお、上記内容の具体的な実施例については後述する。
サブCPU42は、LCDドライバ48を介してサブLCD11、AF用LED19、ストロボ用LED20、リモコン受光部16、上述したSW1〜SW14からなる操作キーユニット43、及びブザー44等が接続されている。したがって、上述した各構成は、サブCPU42によって制御される。また、サブCPU42は、リモコン受光部16に対する信号の入力状態や、操作キーユニット(例えば、上述したSW1〜SW14等)に対する入力状態を監視する。
ここで、プロセッサ34のUSBブロック34−6は、例えばUSBコネクタ45に接続されており、プロセッサ34のシリアルブロック34−1は、例えばシリアルドライバ回路46を介してRS−232Cコネクタ47に接続されている。したがって、本実施形態における撮像装置1は、上述したUSBブロック34−6やシリアルブロック34−1によって、撮像装置1に接続された外部機器との間でデータ通信を行う。
プロセッサ34のTV信号表示ブロック34−10は、LCDモニタ21を駆動するためのLCDドライバ48、ビデオ信号を増幅すると共にインピーダンス整合を行うためのビデオアンプ49が接続されており、LCDドライバ48にはLCDモニタ21、ビデオアンプ49にはTV等の外部モニタ機器に接続するためのビデオジャック50が接続されている。つまり、TV信号表示ブロック34−10は、画像データをビデオ信号に変換して、LCDモニタ21やビデオジャック50に接続された外部モニタ機器等の表示手段に出力する。
また、LCDモニタ21は、撮影中の被写体のモニタや、撮影された画像の表示、メモリカード52又は内蔵メモリ36に記録された画像の表示等に使用される。なお、LCDモニタ21は、タッチパネル等による入出力機能を有していてもよく、その場合には、ユーザ等のタッチ入力に基づいて、所定の被写体の特定や各種指示入力を行うことができる。
メモリカードコントローラブロック34−11は、メモリカードスロットル51が接続されている。したがって、撮像装置1は、メモリカードスロットル51に挿入された増設用のメモリカード52とデジタルカメラとの間で画像データのやり取りを行う。
なお、上述した撮像装置1の構成において、鏡胴ユニット18、CCD31、F/E−IC32、及びCCD1信号処理ブロック34−2は、本実施形態における撮像手段に相当する。また、上述した図2に示す構成では、被写体光像を光電変換するための固体撮像素子としてCCD31を用いたが、本発明においてはこれに限定されるものではなく、例えばCMOS(Complementary Metal Oxide Semiconductor)を用いてもよい。その場合には、CCD1信号処理ブロック34−2及びCCD2信号処理ブロック34−3は、それぞれCMOS1信号処理ブロック34−2及びCMOS2信号処理ブロック34−3に置き換えて同様の処理を行わせることになる。
<CPUブロック34−4の機能構成例>
次に、上述したCPUブロック34−4の本実施形態における具体的な機能構成例について図を用いて説明する。図3は、CPUブロックの機能構成の一例を示す図である。図3に示すCPUブロック34−4は、自動合焦制御手段34−4aと、AFエリア設定制御手段34−4bと、被写体検出手段34−4cと、合焦位置決定手段34−4dとを有するよう構成されている。
自動合焦制御手段34−4aは、例えば撮像手段に含まれる光学系(例えば、鏡胴ユニット18)を駆動させて、所定の被写体の像を撮像素子(CCD31)の受光部に入力し、撮像手段から得られた画像に基づいてAF評価値を取得して合焦制御を行う。なお、所定の被写体とは、例えば被写体検出手段34−4cにおいて検出された被写体等を示す。
また、自動合焦制御手段34−4aは、被写体の位置が、例えば測距手段による測距可能エリア外にある場合に追尾AF機能等を用いて合焦制御を行う。なお、測距手段とは、例えば複数の2次元センサ等を用いた測距方式等を示す。
AFエリア設定制御手段34−4bは、AF実行時に、その全撮影エリアに対して、予め設定された条件に基づいて、更にAFを行うエリア(狭域AFエリア)等を設定する。
被写体検出手段34−4cは、撮像装置1の撮影エリアに含まれる1又は複数の被写体に対して、ある特定の被写体(例えば、撮影エリアの最も中心にいる被写体や、撮像装置1からの距離が一番近い被写体、或いはユーザがLCDモニタ21からタッチパネル等により指定した被写体)を検出する。
また、被写体検出手段34−4cは、被写体の動作や撮像装置1の移動等により、被写体が撮影エリアから外れた場合に測距不能になってしまうことを防止するために、予め設定された条件に基づいて、追尾AF機能等による被写体の検出を行う。
合焦位置決定手段34−4dは、被写体検出手段34−4cにより検出された被写体に対する合焦位置を決定する。なお、上述したCPUブロック34−4による具体的な処理内容については後述する。
<本実施形態における撮像装置1の動作概要例>
次に、撮像装置1の動作概要例についてフローチャートを用いて説明する。図4は、撮像装置の動作手順の一例を示すフローチャートである。
なお、以下に示す動作手順において、撮像装置1の動作モードには、撮影する際に使用する撮影モードと、撮影された画像を再生する際に使用する再生モードとが存在するものとする。また、撮影モードの動作には、被写体の顔を認識して、その顔の周囲の画像エリア(以下、「顔エリア」という)に対してAE(Auto Exposure)処理やAF処理等を行う顔認識モードと、通常の画像エリア(以下、「通常エリア」という)において、AE処理やAF処理を行う通常モードとが存在するものとする。更に、撮影モードでは、セルフタイマを使用して撮影するセルフタイマモードや、リモコン等によって撮像装置1を遠隔操作するリモコンモード等が存在するものとする。
ここで、本実施形態における動作手順では、例えば撮像装置1の電源スイッチSW14をONにした状態で、モードダイアル用のSW2を撮影モードに設定すると、撮像装置1は撮影モードとなり、またモードダイアル用のSW2を再生モードに設定した場合には、撮像装置1は再生モードとなる。したがって、撮像装置1の電源スイッチ用のSW14をONにすると、図4のフローチャートに示される動作手順が開始される。
図4に示す動作手順では、まず、モードの設定が行われ(S01)、設定されたモードが動作モードであるか否かを判断する(S02)。ここで、動作モードである場合(S02において、YES)、次に、その動作モードが撮影モードであるか否かを判断する(S03)。つまり、S03の処理では、モードダイアル用のSW2の状態が撮影モードであるか、或いは再生モードであるかが判断される。
ここで、S03の処理において、SW2の状態が撮影モードである場合(S03において、YES)、モニタリング処理を行う(S04)。S04の処理では、プロセッサ34によりモータドライバ18−5が制御されて鏡胴ユニット18を構成するレンズ鏡胴が撮影可能な位置に移動され、更に例えばCCD31、F/E−IC32、LCDモニタ21等の撮影に必要とされる各回路に電源が投入される。そして、各光学系18−1,18−2によってCCD31の受光部に結像された被写体像の情報は、随時CCD31によりRGBアナログ信号に変換され、このRGBアナログ信号は、CDS回路32−1及びAGC32−2によって、上述したようにノイズ低減の処理や利得調整の処理等の所定処理がなされ、A/D変換部32−3によってRGBデジタル信号に変換され、プロセッサ34のCCD1信号処理ブロック34−2に出力される。
更に、このRGBデジタル信号は、CCD1信号処理ブロック34−2により、RAW−RGB画像データ、YUV画像データ、JPEG画像データに変換されSDRAM33のフレームメモリに書き込まれる。なお、これらの画像データのうち、YUV画像データは、SDRAM33のフレームメモリから随時読み出され、TV信号表示ブロック34−10によりビデオ信号に変換されて、LCDモニタ21やTV等の外部モニタ機器に出力される。
このように、撮影待機状態において、被写体像の画像データを随時SDRAM33のフレームメモリに取り込むと共に、被写体像を随時LCDモニタ21やTV等の外部モニタ機器に出力する処理をモニタリング処理とする。
S04の処理が終了後、例えばモードダイアル用のSW2の設定変更が行われたか否かを判断し(S05)、設定変更が行われた場合(S05において、YES)、S02に戻り変更された設定において後続の処理を行う。また、S05の処理において、設定変更が行われていない場合(S05において、NO)、撮影処理を行う(S06)。
S06の処理では、レリーズスイッチ用のSW1の状態が判断され、レリーズスイッチSW1が押されていない場合には、S04の処理に戻る。レリーズスイッチ用のSW1が押された場合には、この時点でSDRAM33のフレームメモリに取り込まれている被写体の画像データを内蔵メモリ36やメモリカード52に記録する処理等が実行され、その後、S04の処理に戻る。
つまり、撮像装置1が撮影モードで動作している場合には、上述したS04〜S06の処理を繰り返すことになる。この繰り返しの処理を行っている状態をファインダモードという。本実施形態における撮像装置1では、約1/30秒程度の周期で、これらの処理が繰り返される。ファインダモードでは、モニタリング処理も約1/30秒程度の周期で繰り返し行われ、これに伴いLCDモニタ21や外部モニタ機器の表示は更新される。
また、上述したS03の処理において、動作撮影モードでない場合(S03において、NO)、再生モードとして撮影済み画像を再生する(S07)。S07の処理では、例えば内蔵メモリ36やメモリカード52等に記録された画像データをLCDモニタ21やTV等の外部モニタ機器等に出力させる。
ここで、モードダイアル用のSW2の設定変更が行われたか否かを判断し(S08)、設定変更が行われた場合(S08において、YES)、S02の処理に戻り後続の処理を行う。また、設定変更が行われていない場合(S08において、NO)、S07の処理に戻り後続の処理を行う。
次に、本実施形態における撮像装置1が備えている主な機能として、AE機能、AF機能、追尾AF機能、測距ユニット15の測距センサを用いた測距機能について、具体的に説明する。
<AE機能について>
撮像装置1のAE(Auto Exposure)機能とは、カメラ等の撮像装置において、絞り値とシャッター速度との組み合わせを変えることにより、CCD31等の撮像素子の受光部の露光量を自動的に決定する機能(自動露光機能)のことであり、AF(Auto フォーカス)機能とは、撮影レンズの焦点を自動的に合わせる機能(自動合焦機能)のことである。
<AF機能について>
次に、撮像装置1のAF機能について説明する。CCD31によって取り込まれた画像が合焦状態にあるときには、被写体の画像の輪郭部分がはっきりとしているため、この画像の輪郭部分におけるAF評価値が大きくなる。
コントラストAF制御における合焦検出動作時には、フォーカスレンズ18−2aを撮影レンズの光軸方向に移動しつつ、フォーカスレンズ18−2aの各移動位置におけるAF評価値を算出して、AF評価値が極大になるフォーカスレンズ18−2aの位置(AF評価値が極大となる位置)を検知する。
また、AF評価値が極大になる位置が複数ヶ所あることも考慮にいれ、複数ヶ所あった場合には、極大におけるAF評価値の大きさや、その周囲のAF評価値との下降度合いや上昇度合いを判断し、最も信頼性のある位置を合焦位置としてAF処理を実行する。複数あるAF評価値が極大となる位置が何れも高信頼性であった場合には、近距離にある極大位置を合焦位置とする。
AF評価値のデータは、画像の特徴データとしてプロセッサ34内のメモリに随時記憶されて、この特徴データはAF処理に利用される。このAF評価値は、デジタルRGB信号に基づいて、取り込まれた画像内の特定の範囲について算出することができる。
ここで、図5は、AFエリアの一例を示す図である。なお、図5では、ファインダモード時のLCDの表示状態を示しており、LCD表示エリア61内の中央枠が、撮像装置1での通常のAFエリア(以下、「通常AFエリア」という)62である。なお、図5に示す例では、撮像装置1におけるLCD表示エリア61内の水平方向に40%、垂直方向に30%の部分を通常AFエリア62としているが、本発明においてはこれに限定されるものではない。
本実施形態における撮像装置1では、レリーズスイッチ用のSW1が押下されると、プロセッサ34のCCD1信号処理ブロック34−2に取り込まれたRGBデジタル信号に基づいて、露光状態を示すAE評価値と画面の合焦度合いを示すAF評価値とが算出されるようになっている。
<追尾AF機能について>
次に、撮像装置1の追尾AF機能について図を用いて説明する。図6は、追尾AF時におけるAFエリアの一例を説明するための図である。追尾AF機能とは、追尾対象として登録された被写体パターンを撮像素子により取り込まれた全撮影エリア(画像)71から探索し、検出された被写体パターンの位置にピントを合わせ続けることで、被写体が全撮影エリア71内で動き回ったとしても撮影する際には被写体にピントが合っていることを目的とする機能のことである。
なお、撮影エリアからの追尾対象被写体(以下、「追尾被写体」という)72の検出には、多くの場合、テンプレートマッチングで行われる。具体的には、ROM37内に格納されているテンプレートと、CCD31等の撮像素子から取り込まれた画像との比較を行い、画像内にテンプレートに類似した画像又は特徴があった場合は検知とする。また、テンプレートは、例えば、画像データそのものであったり、ヒストグラム等の画像データから求められる特徴であったりする。
本実施形態では、ユーザが指定した追尾被写体72のヒストグラムをテンプレートとして用いている。また、本実施形態では、検出された追尾被写体72にピントを合わせ続ける方法として、例えば狭域AFの繰り返しによる手法を用いる。具体的には、追尾被写体72に動きがあったと判断した場合(本実施形態での動きがあったかどうかの判断は、追尾被写体72の全撮影エリア71内での位置が移動した場合)、通常のAFよりも非常に狭い範囲(狭域エリア73)でのAFを、現在のフォーカス位置の周辺で行い、そこで合焦位置が見つかった場合にはそこで終了し、見つからなかった場合にはAF時のAF評価値の下降具合や上昇具合から合焦位置が近距離にあるのか遠距離にあるのかを判断し、合焦位置があると思われる方向に移動して、再び狭域のAFを行う。このように、上述した処理を合焦位置が見つかるまで行うことで追尾被写体72にピントを合わせ続ける。
ここで、追尾AFモードは、例えば撮像装置1のメニュースイッチ用のSW6により選択できるようになっている。また、追尾AFモードは、動作モードを、予めクイックアクセス用のSW13に登録しておき、そのSW13を操作することにより簡単に選択することもできる。
次に、具体的な追尾AFの処理についてフローチャートを用いて説明する。図7は、追尾AF処理手順の一例を示すフローチャートである。追尾AFモードにおいて、追尾AF開始ボタンが押されることで追尾AF処理が開始する(S11)。具体的にはレリーズスイッチ(以下、「RLスイッチ」という)用のSW1が半押しされることで追尾AFが開始し、押され続けている間中、追尾AFが実行され続ける。
レリーズスイッチ用のSW1が半押しされると、例えばモニタ画面の真ん中を中心とした水平方向10%、垂直方向10%のエリア(図6における狭域エリア73−1)内にある被写体を追尾対象(追尾被写体72−1)として登録し、上記エリアをAFエリアとしてAFが実行される(S12)。
ここで、AFがOKであるか否かを判断し(S13)、AFがOKである場合(S13において、YES)、追尾AFを開始する。具体的には、追尾被写体72−1を画面内から常に探索し続け、追尾被写体72−1の位置を更新していく。つまり、追尾被写体72−1の位置が移動したか否かを判断し(S14)、位置が移動した場合(S14において、YES)、例えばLCDモニタ21等の表示手段に表示している狭域エリア73−1の枠(追尾枠)を、移動した追尾被写体72−2の位置と同様の位置(狭域エリア73−2)に移動させる(S15)。また、追尾被写体72の位置が前回の位置から移動しているため、狭域AFを行い、追尾被写体72のピント位置を探索する狭域AF処理を行う(S16)。
ここで、S16の処理におけるAF結果がOKであるか否かを判断し(S17)、AFがOKでない(NGである)場合(S17において、NO)、例えばピント位置があると思われる方向にAF開始位置を変更し(S18)、S16の処理に戻り再度AF処理を行う。
ここで、RLスイッチ用のSW1がOFFであるか否かを判断する(S19)。なお、SW1がOFFか否かの判断は、例えばSW1が離されるか、又は完全に押し込まれた場合にOFFであると判断する。S19の処理において、SW1がOFFでない場合(S19において、NO)、S14の処理に戻る。また、S19の処理において、SW1がOFFである場合(S19において、YES)、又はS13の処理において、AFがOKでない場合(S13において、NO)、そのまま終了する。また、S14において、追尾被写体72が移動していない場合(S14において、NO)、S14の処理を繰り返し行う。
<測距ユニット15の測距センサを用いた測距機能について>
次に、測距ユニット15の測距センサを用いた測距機能について図を用いて説明する。図8は、測距方式の一例を説明するための図である。本実施形態における測距センサとは、例えば、レンズ81と撮像素子(2次元センサ)82とがそれぞれ2つ並べてあり、その2つの撮像素子(82−1,82−2)から得られる画像の視差を用いて、三角測量によって距離の測定を行うセンサをいう。なお、距離の測定は、全撮影エリア(画像)内の全ての位置で行われる。
図8の例では、レンズの間隔を基線長Bとし、焦点距離fL、fRのレンズL,レンズRが配置されているとする。なお、fL、fRは、焦点距離の比でfL=m*fRの関係であるとする。つまり、mは、焦点比率比である。
ここで、各レンズで測距したい像が、基線長Bを基準にそれぞれdL、dRの位置に結像している。このとき、距離Lは、以下の式(1)となる。
L={(B+dL+dR)*m*fR}/(dL+m*dR)・・・(1)
ここで、主レンズとは別にfL、fRがfで等しい専用のAF光学系の場合は、式(1)が以下に示す式(2)のようになる。
L={(B+dL+dR)*f}/(dL+dR)・・・(2)
ここで、式(1)においては、左右のレンズ81−1,81−2の焦点距離が異なってもよく、レンズLが撮影用の主レンズと兼用であってもよい。このように、基線長基準でのdL及びdRを測定することで距離Lを取得することができる。なお、本実施形態における測距機能では、上述した測距方式による測距を所定のタイミングで常時行い、撮像装置1の撮影モードの起動中は、常に測距結果を更新し続ける。なお、本実施形態における2次元センサの数は2つに限定されるものではなく、例えば3以上等の複数の2次元センサを有してもよい。
次に、本実施形態における測距センサを利用した追尾AF処理手順について具体的に説明する。なお、以下に示す追尾AF処理手順は、例えば上述したCPUブロック34−4の各構成を用いて実行される処理である。
<追尾AF処理手順:実施例1>
図9は、実施例1における追尾AF処理手順の一例を示すフローチャートである。
上述したように、通常、追尾AFが行われる場合には、追尾被写体のエリアに対してピントを合わせ続ける。ここで、ピントを合わせる手法に関しては、例えば合焦位置を発見するまでフォーカスを動かし続ける手法や、上述した追尾AFの説明で示した狭域での探索を繰り返して合焦位置を発見する手法等が知られている。
しかしながら、何れの手法にしても急激な距離の変化には対応しづらいという問題点がある。例えば、狭域のAFを繰り返す手法では、急な距離の変化が起こった場合、何度も狭域AFを繰り返さなくてはピント位置を見つけることができない。そこで、実施例1では、測距センサの結果を用いることで、急激な距離の変化にも強い追尾AFを実現させる。
具体的には、図9に示すように、まず、追尾開始ボタン(例えば、RLスイッチ用のSW1)が押下(ON)されることにより(S21)、画面中央エリアでAF処理を行い(S22)、ピントを合わせた後、AFがOKであるか否かを判断する(S23)。
AFがOKである場合(S23において、YES)、エリア内の被写体を追尾対象として登録し、その追尾AFが開始される。追尾AF開始後、追尾被写体が移動したか否かを判断し(S24)、追尾被写体が移動した場合(S24において、YES)、移動後の追尾被写体に対して追尾枠及びピントを合わせる処理に移る。
具体的には、まず、追尾枠を移動後の追尾対象の位置に移動させる(S25)。その後、従来手法であれば、追尾対象が移動した場合に微小範囲でのAFを行うことで追尾対象にピントを合わせ続けるが、実施例1では、追尾対象が移動した際にAFを行うことで追尾対象にピントを合わせるのではなく、追尾対象が移動した際に追尾対象エリアに対応する測距結果を取得し(S26)、その測距結果の位置にフォーカスを移動させることでピントを合わせる(S27)。
ここで、RLスイッチ用のSW1がOFFであるか否かを判断する(S28)。なお、SW1がOFFか否かの判断は、例えばSW1が離されるか、又は完全に押し込まれた場合にOFFであると判断する。S28の処理において、SW1がOFFでない場合(S28において、NO)、S24の処理に戻る。また、S28の処理において、SW1がOFFである場合(S28において、YES)、又はS23の処理において、AFがOKでない場合(S23において、NO)、そのまま終了する。また、S24の処理において、追尾被写体72が移動していない場合(S24において、NO)、S24の処理を繰り返し行う。
実施例1では、上述した処理を行うことで、追尾対象の様々な距離の変化に対しても即座にピントを合わせることができる。これにより、追尾AF時の急激な距離の変化によって、ピントが合わない問題を解消することができる。
<追尾AF処理手順:実施例2>
次に、追尾AF処理手順の他の実施例(実施例2)についてフローチャート等を用いて説明する。実施例2では、例えば、測距センサの結果と狭域(狭域CCD)のAFとを用いて追尾AFを行う。上述した実施例1の手法で追尾AFを行う場合には、測距センサの結果の精度が問題となってくる。具体的には、実施例1では、測距結果の位置にフォーカスを持っていくため、もし測距結果が間違っていた場合には、ピントの合っていない位置にフォーカスを移動させてしまうこととなる。そこで、実施例2では、多少測距結果に誤差が発生したとしても正確にピントの合わせられるようにするため、測距結果付近で狭域のAF処理を行う。
ここで、実施例2における測距結果を受けての狭域のAFの処理についてフローチャートを用いて説明する。図10は、実施例2における追尾AF処理手順の一例を示すフローチャートである。実施例1と同じように追尾AFが開始され、追尾被写体が移動すると測距センサからの追尾被写体の位置情報を取得する。その後、その測距結果を中心とした狭いAFスキャン範囲を設定し、その範囲において追尾対象エリア内でAF処理を行う。そうすることで、急な距離の変化が起こったとしても少ないAF回数でピント位置を見つけることが可能になる。
具体的には、図10に示すように、まず、追尾開始ボタン(例えば、RLスイッチ用のSW1)が押下(ON)されることにより(S31)、画面中央エリアでAF処理を行い(S32)、ピントを合わせた後、AFがOKであるか否かを判断する(S33)。
ここで、AFがOKである場合(S33において、YES)、エリア内の被写体を追尾対象として登録し、追尾AFが開始される。追尾AF開始後、追尾被写体が移動したか否かを判断し(S34)、追尾被写体が移動した場合(S34において、YES)、移動後の追尾対象に対して追尾枠及びピントを合わせる処理に移る。
具体的には、まず、追尾枠を移動後の追尾対象の位置に移動させる(S35)。その後、追尾対象が移動した際に追尾対象エリアの測距結果を取得(S36)、その測距結果の位置にフォーカスを移動させる(S37)。
次に、その測距結果付近において狭域のAFを行うことで、追尾被写体にピントを合わせる狭域処理を行う(S38)。ここで、S38の処理におけるAF結果がOKであるか否かを判断し(S39)、AFがOKでない(NGである)場合(S39において、NO)、例えばピント位置があると思われる方向にAF開始位置を変更し(S40)、S38の処理に戻り再度AF処理を行う。
ここで、RLスイッチ用のSW1がOFFであるか否かを判断する(S41)。なお、SW1がOFFか否かの判断は、例えばSW1が離されるか、又は完全に押し込まれた場合にOFFであると判断する。S41の処理において、SW1がOFFでない場合(S41において、NO)、S34の処理に戻る。また、S41の処理において、SW1がOFFである場合(S41において、YES)、又はS33の処理において、AFがOKでない場合(S33において、NO)、そのまま終了する。また、S34において、追尾被写体が移動していない場合(S34において、NO)、S34の処理を繰り返し行う。
実施例2では、上述した処理を行うことで、測距結果の誤差に左右されること無く、追尾対象の様々な距離の変化に対してピントが合わせることができる。これにより、測距結果に誤差があった場合にピントが合わない問題を解消することができる。
<追尾AF処理手順:実施例3>
次に、追尾AF処理手順の他の実施例(実施例3)について図等を用いて説明する。実施例3では、焦点距離によって追尾AF時に測距センサの結果を使用するかどうかを選択する手法について説明する。
図11は、WIDEモード時における測距可能エリアの一例を示す図である。近年では、高倍率の焦点距離までズーム可能なカメラ(撮像装置)が多く見られる。その場合、WIDE時とTELE時での焦点距離が大きく異なるため、画角も大きく違ってくる。しかしながら、測距センサのレンズはズーム不可能であるため、画角は常に一定である。そのため、カメラ側の全焦点距離の画角全域で測距を行おうとすると、測距センサの焦点距離はWIDE端と同様の焦点距離にしなければならない。しかしながら、高倍率のカメラの場合、WIDE端での画角はTELE端での画角内の非常に小さい範囲となってしまう。
そのため、測距を行うにしても範囲が狭すぎて測距精度が非常に下がることとなってしまう。
そこで、実施例3では、図11に示すように、全撮影エリア91ではなく、被写体92を含む測距可能エリア93を設定し、WIDE端時ではAFエリア内でのみ測距を行えるような焦点距離の測距センサとすることで、WIDE時でもTELE時でも測距可能になるようにする。
なお、実施例3では、例えば測距センサの焦点距離の一例を約80mmとしている。しかしながら、その場合、WIDE時においては画角全域での測距が不可能であるため、画面端での測距結果を用いた追尾AFが行えない。そのため、更に実施例3では、焦点距離によって、測距結果を追尾AFに使用するかどうかの選択を行うこととする。
具体的には、カメラレンズの焦点距離が測距センサの焦点距離(例えば、80mm)未満であった場合には、測距センサの結果を用いないようにする。焦点距離が短い場合には、被写体の距離変化に対するフォーカスの移動量が、焦点距離が長い場合に比べて少ない。そのため、同じフォーカス移動量でAFを行ったとしても焦点距離が短いほうが探索できる距離は長くなる。したがって、焦点距離が短い場合、急激な距離変化があった場合においても、追尾AFでピント位置を見失うことは少なくなる。
ここで、実施例3の具体的な焦点距離による測距センサ使用の選択方法を含む追尾AF処理手順についてフローチャートを用いて説明する。図12は、実施例3における追尾AF処理手順の一例を示すフローチャートである。
具体的には、図12に示すように、まず、追尾開始ボタン(例えば、RLスイッチ用のSW1)が押下(ON)されることにより(S51)、画面中央エリアでAF処理を行い(S52)、ピントを合わせた後、AFがOKであるか否かを判断する(S53)。
AFがOKである場合(S53において、YES)、エリア内の被写体を追尾対象として登録し、その追尾AFが開始される。追尾AF開始後、追尾被写体が移動したか否かを判断し(S54)、追尾被写体が移動した場合(S54において、YES)、移動後の追尾被写体に対して追尾枠及びピントを合わせる処理に移る。
具体的には、まず、追尾枠を移動後の追尾対象の位置に移動させる(S55)。その後、追尾対象が移動した際に追尾対象にピントを合わせるが、その際に、現在のカメラレンズの焦点距離と測距センサの焦点距離との比較を行う。つまり、カメラレンズの焦点距離が測距センサの焦点距離(例えば80mm)以上か否かを判断し(S56)、カメラレンズの焦点距離が測距センサの焦点距離(例えば80mm)以上である場合(S56において、YES)、測距センサの結果を用いて追尾AFを行う。具体的には、追尾対象が移動した際に追尾対象エリアに対応する測距結果を取得し(S57)、その測距結果の位置にフォーカスを移動させることでピントを合わせる(S58)。
また、S58の終了後、又は、S56の処理において、カメラレンズの焦点距離が測距センサの焦点距離(例えば80mm)以上でない場合(S56において、NO)、測距センサの結果は用いず狭域のAFのみで追尾AF(狭域AF処理)を行う(S59)。なお、測距センサの結果を用いない処理の場合には、測距センサの測距処理自体を停止させてもよく、また停止させなくてもよい。
次に、S59の処理におけるAF結果がOKであるか否かを判断し(S60)、AFがOKでない(NGである)場合(S60において、NO)、例えばピント位置があると思われる方向にAF開始位置を変更し(S61)、S59の処理に戻り再度AF処理を行う。
ここで、RLスイッチ用のSW1がOFFであるか否かを判断する(S62)。なお、SW1がOFFか否かの判断は、例えばSW1が離されるか、又は完全に押し込まれた場合にOFFであると判断する。S62の処理において、SW1がOFFでない場合(S62において、NO)、S54の処理に戻る。また、S62の処理において、SW1がOFFである場合(S62において、YES)、又はS53の処理において、AFがOKでない場合(S53において、NO)、そのまま終了する。また、S54において、追尾被写体が移動していない場合(S54において、NO)、S54の処理を繰り返し行う。
実施例3では、上述した処理を行うことで、どのような焦点距離のカメラ及び測距センサにおいても測距結果を用いた追尾AFが可能となる。
<追尾AF処理手順:実施例4>
次に、追尾AF処理手順の他の実施例(実施例4)についてフローチャート等を用いて説明する。実施例4では、焦点距離及び追尾被写体の画面内位置のよって、追尾AF時に測距センサの結果を使用するかどうかを選択する手法について説明する。
実施例3でも述べたように、高倍率の焦点距離までズーム可能なカメラにおいてはWIDE端では、全域で測距不可能である場合がある。その場合には、画面の周辺において測距不能となってしまう。そこで、本実施例では、実施例3のように測距不可能な領域が発生する焦点距離で測距結果を使わなくするのではなく、その測距不可能な領域に追尾被写体が移動した場合にのみ測距結果を使用しないようにすることで、なるべく多くのシチュエーションで測距結果を使用できるようにする。
ここで、具体的な焦点距離による測距センサ使用の選択方法についてフローチャートを用いて説明する。図13は、実施例4における追尾AF処理手順の一例を示すフローチャートである。
具体的には、図13に示すように、まず、追尾開始ボタン(例えば、RLスイッチ用のSW1)が押下(ON)されることにより(S71)、画面中央エリアでAF処理を行い(S72)、ピントを合わせた後、AFがOKであるか否かを判断する(S73)。
AFがOKである場合(S73において、YES)、エリア内の被写体を追尾対象として登録し、その追尾AFが開始される。追尾AF開始後、追尾被写体が移動したか否かを判断し(S74)、追尾被写体が移動した場合(S74において、YES)、移動後の追尾被写体に対して追尾枠及びピントを合わせる処理に移る。
具体的には、まず、追尾枠を移動後の追尾対象の位置に移動させる(S75)。その後、追尾対象が移動した際に追尾対象にピントを合わせるが、その際に、その追尾被写体の位置が測距可能な位置かどうかの判断を行う。つまり、追尾被写体が、測距可能エリア内であるか否かを判断し(S76)、測距可能エリア内である場合(S76において、YES)、測距センサの結果を用いて追尾AFを行う。具体的には、追尾対象が移動した際に追尾対象エリアに対応する測距結果を取得し(S77)、その測距結果の位置にフォーカスを移動させることでピントを合わせる(S78)。
また、S78の終了後、又は、S76の処理において、追尾被写体が、測距可能エリア内でない場合(S76において、NO)、測距センサの結果は用い狭域のAFのみで追尾AF(狭域AF処理)を行う(S79)。なお、測距センサの結果を用いない処理の場合には、測距センサの測距処理自体を停止させてもよく、また停止させなくてもよい。
次に、S79の処理におけるAF結果がOKであるか否かを判断し(S80)、AFがOKでない(NGである)場合(S80において、NO)、例えばピント位置があると思われる方向にAF開始位置を変更し(S81)、S79の処理に戻り再度AF処理を行う。
ここで、RLスイッチ用のSW1がOFFであるか否かを判断する(S82)。なお、SW1がOFFか否かの判断は、例えばSW1が離されるか、又は完全に押し込まれた場合にOFFであると判断する。S82の処理において、SW1がOFFでない場合(S82において、NO)、S74の処理に戻る。また、S82の処理において、SW1がOFFである場合(S82において、YES)、又はS73の処理において、AFがOKでない場合(S73において、NO)、そのまま終了する。また、S74において、追尾被写体が移動していない場合(S74において、NO)、S74の処理を繰り返し行う。
実施例4では、上述した処理を行うことで、どのような焦点距離のカメラ及び測距センサにおいても、なるべく多くのシチュエーションにおいて、測距結果を用いた追尾AFが可能となる。
<追尾AF処理手順:実施例5>
次に、追尾AF処理手順の他の実施例(実施例5)について図等を用いて説明する。実施例5では、焦点距離及び追尾被写体の画面内位置によって追尾AF時に測距結果を推定する手法について説明する。図14は、測距結果の推定手法の一例を説明するための図である。
上述した実施例3でも述べたように、高倍率の焦点距離までズーム可能なカメラにおいてはWIDE端では全域で測距不可能である場合がある。その場合には、画面の周辺において測距不能となってしまう。そこで、実施例5では、例えば上述した実施例4のように測距不可能な領域に追尾被写体が移動した場合にのみ測距結果を使用しないようにするのではなく、測距不可能な領域に追尾被写体が移動した場合には、測距可能なエリアの距離情報に基づいて測距不能エリアの距離を推定し、追尾被写体の測距結果とすることでなるべく多くのシチュエーションで測距結果を使用できるようにする。
具体的には、図14に示すように、測距結果の推定は、全撮影エリア101において、画面中央で追尾被写体102−1を設定した後、その追尾被写体の移動中の距離を一定間隔でプロットし、追尾被写体102が測距可能エリア103よりも外側のエリアに移動した際には(例えば、図14に示す追尾被写体102−2)、これまでの追尾被写体の距離情報からその後の距離情報を推定する。つまり、実施例5では、追尾開始時の距離と測距不可能エリアに移動する直前の距離との2点から、直線補間を用いて、その後の距離情報を推定する。
ここで、図15は、実施例5における追尾AF処理手順の一例を示すフローチャートである。具体的には、図15に示すように、まず、追尾開始ボタン(例えば、RLスイッチ用のSW1)が押下(ON)されることにより(S91)、画面中央エリアでAF処理を行い(S92)、ピントを合わせた後、AFがOKであるか否かを判断する(S93)。
AFがOKである場合(S93において、YES)、エリア内の被写体を追尾対象として登録し、その追尾AFが開始される。追尾AF開始後、追尾被写体が移動したか否かを判断し(S94)、追尾被写体が移動した場合(S94において、YES)、移動後の追尾被写体に対して追尾枠及びピントを合わせる処理に移る。
具体的には、まず、追尾枠を移動後の追尾対象の位置に移動させる(S95)。その後、追尾対象が移動した際に追尾対象にピントを合わせるが、その際に、その追尾被写体の位置が測距可能な位置かどうかの判断を行う。つまり、追尾被写体が、測距可能エリア内であるか否かを判断し(S96)、測距可能エリア内である場合(S96において、YES)、測距センサの結果を用いて追尾AFを行う。具体的には、追尾対象が移動した際に追尾対象エリアに対応する測距結果を取得する(S97)。
また、S96の処理において、測距可能エリア内でない場合(S96において、NO)、測距センサの結果は用いずに、上述した被写体距離推定処理を行う(S98)。そして、S97又はS98の処理が終了後、それぞれの結果を用いてフォーカスを移動させることでピントを合わせ(S99)、追尾AF(狭域AF処理)を行う(S99)。
次に、S99の処理におけるAF結果がOKであるか否かを判断し(S100)、AFがOKでない(NGである)場合(S100において、NO)、例えばピント位置があると思われる方向にAF開始位置を変更し(S101)、S100の処理に戻り再度AF処理を行う。
ここで、RLスイッチ用のSW1がOFFであるか否かを判断する(S102)。なお、SW1がOFFか否かの判断は、例えばSW1が離されるか、又は完全に押し込まれた場合にOFFであると判断する。S102の処理において、SW1がOFFでない場合(S102において、NO)、S94の処理に戻る。また、S102の処理において、SW1がOFFである場合(S102において、YES)、又はS93の処理において、AFがOKでない場合(S93において、NO)、そのまま終了する。また、S94において、追尾被写体が移動していない場合(S94において、NO)、S94の処理を繰り返し行う。
実施例5では、上述した処理を行うことで、測距不可能なエリアにおいても測距結果を用いた場合と同等の速度での追尾AFが可能となる。
<追尾AF処理手順:実施例6>
次に、追尾AF処理手順の他の実施例(実施例6)について説明する。上述した各実施例は、自動追尾処理によりAF枠が自動で移動した場合を説明したが、本発明においてはこれに限定されるものではなく、例えば、AF枠が手動で移動した場合にも上述した各実施例と同様に処理が行われる。そこで、AF枠を手動で移動させる場合を実施例6として、以下に具体的に説明する。
<手動によるAF枠移動について>
例えば、図1(C)に示す上下左右スイッチSW10、SW13、SW12、SW11の何れかを押すと、画面中心に表示されているAF枠(通常AFエリア62)を手動で移動させることができる。したがって、実施例6では、上述した図5に示すように、AF枠を画面内の任意の場所に移動させ、その後OKスイッチボタンSW12を押すとAF枠がその位置に固定される。
また、移動させたAF枠が測距可能エリア外にある場合には、上述した実施例1と同様に狭域AF(コントラストAF)処理を行う。
また、例えば、LCDモニタ21の表示手段にタッチパネル等の入出力機能を有している場合には、ユーザ等が画面上の被写体を指でタッチすることにより、任意の被写体にAF枠を移動させることも可能である。この場合、タッチした被写体が測距可能エリア外にある場合には、実施例1と同様に狭域AF(コントラストAF)処理を行う。
実施例6では、上述した処理を行うことで、例えばズームによりAF枠が測距可能エリア外となった場合、自動追尾によりAF枠が測距可能エリア外となった場合、又は手動によりAF枠が測距可能エリア外となった場合であっても、狭域AF(コントラストAF)処理を併用することで、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止することができる。なお、上述した各実施例1〜6は、適宜組み合わせて用いることができる。
上述したように、本発明によれば、測距センサとして2次元センサを用いた場合であっても、コントラストAFを併用することで、被写体が測距センサの測距可能エリアから外れて測距不能になってしまうことを防止することができる。したがって、追尾AF時に追尾対象被写体の距離が急激に変化する場合でもピントをリアルタイムで合わせ続けることができる。
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
1 撮像装置
11 サブ液晶ディスプレイ
12 メモリカード/電池装填部
13 ストロボ発光部
14 光学ファインダ
15 測距ユニット
16 リモコン受光部
17 AF補助光発光素子部
18 鏡胴ユニット
19 AF用LED
20 ストロボ用LED
21 LCDモニタ
31 CCD
32 F/E−IC
33 SDRAM
34 デジタルスチルカメラプロセッサ
35 RAM
36 内蔵メモリ
37 ROM
38 音声入力ユニット
39 音声再生ユニット
40 ストロボ回路
41 LCDドライバ
42 サブCPU
43 操作キーユニット
44 ブザー
45 USBコネクタ
46 シリアルドライバ回路
47 RS−232Cコネクタ
48 LCDドライバ
49 ビデオアンプ
50 ビデオジャック
51 メモリカードスロットル
52 メモリカード
61 LCD表示エリア
62 通常AFエリア
71,91,101 全撮影エリア
72,102 追尾被写体
73 エリア
81 レンズ
82 撮像素子
92 被写体
93,103 測距可能エリア
特許第4217491号公報 特開2001−221945号公報

Claims (7)

  1. 被写体を撮像する撮像素子を含む撮像手段と、
    前記撮像手段に含まれる光学系を駆動させて、前記被写体の像を前記撮像素子の受光部に入力し、前記撮像手段から得られた画像に基づいてオートフォーカス評価値を取得して合焦制御を行う合焦制御手段と、
    複数の2次元センサを用いて前記被写体までの距離を測定する測距手段とを有し、
    前記合焦制御手段は、前記被写体の位置が前記測距手段による測距可能エリア外にある場合に前記合焦制御を行うことを特徴とする撮像装置。
  2. 前記合焦制御手段は、
    予め設定された焦点距離に応じて前記測距手段による測距結果を使用するか否かを判定することを特徴とする請求項1に記載の撮像装置。
  3. 前記合焦制御手段は、
    前記被写体の位置が、測距可能エリア内から測距可能エリア外に移動した場合に、前記合焦制御を行うことを特徴とする請求項1又は2に記載の撮像装置。
  4. 前記合焦制御手段は、
    前記被写体の位置が、前記測距可能エリア内にある場合に、前記測距手段により測定された距離の位置に焦点を移動させる焦点制御を行った後に、前記焦点制御された焦点位置情報に基づいて前記合焦制御を行うことを特徴とする請求項3に記載の撮像装置。
  5. 前記測距手段は、
    前記被写体の位置が、測距可能エリア内から測距可能エリア外に移動した場合に、前記測距可能エリア内での前記被写体の位置から測距可能エリア外に移動した前記被写体の位置を推定することを特徴とする請求項1乃至4の何れか1項に記載の撮像装置。
  6. 撮像素子を含む撮像手段により被写体を撮像する撮像ステップと、
    前記撮像手段に含まれる光学系を駆動させて、前記被写体の像を前記撮像素子の受光部に入力し、前記撮像手段から得られた画像に基づいてオートフォーカス評価値を取得して合焦制御を行う合焦制御ステップと、
    複数の2次元センサを用いて前記被写体までの距離を測定する測距ステップとを有し、
    前記合焦制御ステップは、前記被写体の位置が前記測距手段による測距可能エリア外にある場合に前記合焦制御を行うことを特徴とする撮像方法。
  7. コンピュータを、
    請求項1乃至5の何れか1項に記載の撮像装置が有する各手段として機能させるための撮像プログラム。
JP2011217683A 2011-01-17 2011-09-30 撮像装置、撮像方法、及び撮像プログラム Pending JP2012163940A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011217683A JP2012163940A (ja) 2011-01-17 2011-09-30 撮像装置、撮像方法、及び撮像プログラム
EP12736267.1A EP2666046A4 (en) 2011-01-17 2012-01-13 PICTURE DEVICE, PICTURE PROCEDURE, PICTURE PROGRAM AND COMPUTER READABLE INFORMATION RECORDING MEDIUM
CN201280005324.3A CN103314321B (zh) 2011-01-17 2012-01-13 成像设备、成像方法、成像程序和计算机可读信息记录介质
US13/978,574 US20130293768A1 (en) 2011-01-17 2012-01-13 Imaging apparatus, imaging method, imaging program and computer readable information recording medium
PCT/JP2012/051138 WO2012099226A1 (en) 2011-01-17 2012-01-13 Imaging apparatus, imaging method, imaging program and computer readable information recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011006939 2011-01-17
JP2011006939 2011-01-17
JP2011217683A JP2012163940A (ja) 2011-01-17 2011-09-30 撮像装置、撮像方法、及び撮像プログラム

Publications (1)

Publication Number Publication Date
JP2012163940A true JP2012163940A (ja) 2012-08-30

Family

ID=46515845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011217683A Pending JP2012163940A (ja) 2011-01-17 2011-09-30 撮像装置、撮像方法、及び撮像プログラム

Country Status (5)

Country Link
US (1) US20130293768A1 (ja)
EP (1) EP2666046A4 (ja)
JP (1) JP2012163940A (ja)
CN (1) CN103314321B (ja)
WO (1) WO2012099226A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149389A (ja) * 2013-01-31 2014-08-21 Ricoh Imaging Co Ltd 撮像装置
JP2014192700A (ja) * 2013-03-27 2014-10-06 Panasonic Corp 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP2018146753A (ja) * 2017-03-06 2018-09-20 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP2018180187A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600612B (zh) * 2015-09-28 2021-03-09 Oppo广东移动通信有限公司 一种拍照方法及移动终端
DE102017103660B4 (de) 2017-02-22 2021-11-11 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Verfahren zum betrieb einer lichtquelle für eine kamera, lichtquelle, kamera
CN107147849A (zh) * 2017-05-25 2017-09-08 潍坊科技学院 一种摄影设备的控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314851A (ja) * 2001-04-10 2002-10-25 Nikon Corp 撮影装置
JP2003315664A (ja) * 2002-04-22 2003-11-06 Sanyo Electric Co Ltd オートフォーカスカメラ
JP2007129480A (ja) * 2005-11-02 2007-05-24 Omron Corp 撮像装置
JP2008058399A (ja) * 2006-08-29 2008-03-13 Canon Inc 焦点調節装置、撮像装置、および制御方法
JP2008271006A (ja) * 2007-04-18 2008-11-06 Nikon Corp 画像追尾装置、画像追尾方法および撮像装置
JP2010170042A (ja) * 2009-01-26 2010-08-05 Canon Inc 撮像装置、その制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5623309A (en) * 1987-02-12 1997-04-22 Canon Kabushiki Kaisha Automatic focusing device with adaptive signal filtering
JP4398017B2 (ja) * 1998-10-07 2010-01-13 オリンパス株式会社 測距装置
JP2001221945A (ja) 2000-02-08 2001-08-17 Ricoh Co Ltd 自動合焦装置
JP3958055B2 (ja) * 2002-02-04 2007-08-15 キヤノン株式会社 測距及び測光装置
US20040100573A1 (en) * 2002-11-21 2004-05-27 Osamu Nonaka Focusing apparatus and camera including the same
JP4217491B2 (ja) 2003-01-23 2009-02-04 キヤノン株式会社 センサー装置
EP1684503B1 (en) * 2005-01-25 2016-01-13 Canon Kabushiki Kaisha Camera and autofocus control method therefor
JP4874668B2 (ja) * 2006-02-22 2012-02-15 Hoya株式会社 オートフォーカスユニット及びカメラ
JP5098259B2 (ja) * 2006-09-04 2012-12-12 株式会社ニコン カメラ
JP2008287064A (ja) * 2007-05-18 2008-11-27 Sony Corp 撮像装置
JP2010072537A (ja) * 2008-09-22 2010-04-02 Canon Inc 撮像装置及びその制御方法
JP5229060B2 (ja) * 2009-03-31 2013-07-03 ソニー株式会社 撮像装置および焦点検出方法
EP2352128B1 (en) * 2009-07-29 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Mobile body detection method and mobile body detection apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314851A (ja) * 2001-04-10 2002-10-25 Nikon Corp 撮影装置
JP2003315664A (ja) * 2002-04-22 2003-11-06 Sanyo Electric Co Ltd オートフォーカスカメラ
JP2007129480A (ja) * 2005-11-02 2007-05-24 Omron Corp 撮像装置
JP2008058399A (ja) * 2006-08-29 2008-03-13 Canon Inc 焦点調節装置、撮像装置、および制御方法
JP2008271006A (ja) * 2007-04-18 2008-11-06 Nikon Corp 画像追尾装置、画像追尾方法および撮像装置
JP2010170042A (ja) * 2009-01-26 2010-08-05 Canon Inc 撮像装置、その制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149389A (ja) * 2013-01-31 2014-08-21 Ricoh Imaging Co Ltd 撮像装置
JP2014192700A (ja) * 2013-03-27 2014-10-06 Panasonic Corp 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US10445887B2 (en) 2013-03-27 2019-10-15 Panasonic Intellectual Property Management Co., Ltd. Tracking processing device and tracking processing system provided with same, and tracking processing method
JP2018146753A (ja) * 2017-03-06 2018-09-20 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP2018180187A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム

Also Published As

Publication number Publication date
EP2666046A4 (en) 2015-06-03
CN103314321A (zh) 2013-09-18
US20130293768A1 (en) 2013-11-07
WO2012099226A1 (en) 2012-07-26
EP2666046A1 (en) 2013-11-27
CN103314321B (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
JP5005570B2 (ja) 画像処理装置およびプログラム
JP4042710B2 (ja) オートフォーカス装置及びそのプログラム
EP1998558B1 (en) Image pickup apparatus equipped with function of detecting image shaking
JP4644883B2 (ja) 撮像装置
JP5054583B2 (ja) 撮像装置
CN101373253B (zh) 摄影装置和摄影装置的控制方法
US8767116B2 (en) Imaging apparatus, imaging method and imaging program for displaying an enlarged area of subject image
CN101893808B (zh) 摄影装置的控制方法
JP2012163940A (ja) 撮像装置、撮像方法、及び撮像プログラム
KR20190101706A (ko) 카메라를 이용하여 복수의 프레임 레이트에 따라 영상을 촬영하는 전자 장치 및 그 작동 방법
JP2012002951A (ja) 撮像装置、合焦位置検出方法および合焦位置検出プログラム
JP2009251557A (ja) 撮像装置
JP2011175281A (ja) 撮像装置及びそのプログラム
KR20150089933A (ko) 인터벌 촬영을 실행하는 촬상 장치, 촬상 방법 및 기억 매체
JP2018033013A (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
CN101373255B (zh) 摄影装置和摄影装置的控制方法
JP5486662B2 (ja) 撮像装置及びカメラ本体
US20130242159A1 (en) Imaging device and display process method
JP2009239460A (ja) 焦点制御方法、測距装置、撮像装置
US20100118155A1 (en) Digital image processing apparatus
JP2016142895A (ja) 合焦制御装置、その制御方法、および制御プログラム、並びに撮像装置
JP4771524B2 (ja) 撮像装置及びそのプログラム
JP2012163718A (ja) 撮像装置、撮像方法、及び撮像プログラム
JP2007248539A (ja) 撮像装置
JP2009198817A (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160531