JP5550448B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5550448B2 JP5550448B2 JP2010117893A JP2010117893A JP5550448B2 JP 5550448 B2 JP5550448 B2 JP 5550448B2 JP 2010117893 A JP2010117893 A JP 2010117893A JP 2010117893 A JP2010117893 A JP 2010117893A JP 5550448 B2 JP5550448 B2 JP 5550448B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- focus
- object detection
- lens
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、撮影された画像から動体を検出する動体検出部を持つ撮像装置に関するものである。 The present invention relates to an imaging apparatus having a moving object detection unit that detects a moving object from a captured image.
従来の一眼レフカメラ等の撮像装置の自動焦点調節には、オートフォーカスセンサ(以下、AFセンサ)からの信号に基づいて位相差検出を行い、その時のデフォーカス量を演算する。そして、そのデフォーカス量を解消する方向にレンズを駆動する、‘焦点検出、レンズ駆動’のサイクルを繰り返し行うことによって、正しい焦点調節を行う技術が提案されている。各サイクルにおけるレンズ駆動量はそのサイクルで焦点検出を行った時点でのデフォーカス量に基づいている。また、動きが大きい被写体の場合には、焦点検出、レンズ駆動中にデフォーカス量が変化し、解消すべきデフォーカス量と検出デフォーカス量が異なることがある。その解決策として、検出デフォーカス量とその時間間隔を記憶し、その結果から被写体の移動に起因するデフォーカス変化を予測してレンズ駆動量を補正する動体予測自動焦点調節(以下、動体予測AF)が提案されている(例えば、特許文献1参照)。 For automatic focus adjustment of an imaging apparatus such as a conventional single-lens reflex camera, phase difference detection is performed based on a signal from an autofocus sensor (hereinafter referred to as AF sensor), and the defocus amount at that time is calculated. A technique has been proposed in which correct focus adjustment is performed by repeatedly performing a 'focus detection, lens drive' cycle in which the lens is driven in a direction to eliminate the defocus amount. The lens driving amount in each cycle is based on the defocus amount at the time when focus detection is performed in that cycle. In the case of a subject with a large movement, the defocus amount may change during focus detection and lens driving, and the defocus amount to be eliminated may be different from the detected defocus amount. As a solution to this problem, the detected defocus amount and its time interval are stored, and a moving object prediction automatic focus adjustment (hereinafter referred to as “moving object prediction AF”) that corrects a lens driving amount by predicting a defocus change caused by the movement of the subject from the result. ) Has been proposed (see, for example, Patent Document 1).
しかしながら、従来の動体予測AFでは以下のような課題を有していた。つまり、レリーズ中は撮像素子を露光する為にミラーアップ状態になり、AFセンサが遮光されて該AFセンサによるデフォーカス検出が行えなくなる。その為、レリーズ時間(ミラーアップ時間や撮影時間)が長いとデフォーカス検出間隔が長くなり、動体予測の精度が低下し、結果被写体を見失ってしまう虞があった。 However, the conventional moving object prediction AF has the following problems. That is, during the release, the image pickup device is exposed to the mirror-up state, and the AF sensor is shielded from light so that defocus detection by the AF sensor cannot be performed. Therefore, if the release time (mirror up time or shooting time) is long, the defocus detection interval becomes long, the accuracy of moving object prediction is lowered, and the subject may be lost as a result.
(発明の目的)
本発明の目的は、レリーズ時間が長い場合にも、動体である被写体を見失うことを少なくすることのできる撮像装置を提供しようとするものである。
(Object of invention)
An object of the present invention is to provide an imaging apparatus capable of reducing the loss of sight of a moving subject even when the release time is long.
上記目的を達成するために、本発明の撮像装置は、第1の撮像素子と、第2の撮像素子と、レンズを通過した被写体からの光を前記第2の撮像素子に導く第1の状態と、退避することで前記レンズを通過した被写体からの光を前記第1の撮像素子に導く第2の状態とを有するミラー部材と、前記第2の撮像素子からの出力信号を用いて複数のフォーカスエリアでの焦点状態を検出する焦点検出手段と、前記焦点検出手段により繰り返し検出された複数回の焦点状態の結果からレンズ駆動量を予測するとともに、当該予測演算結果によりレンズ駆動を行わせる制御手段と、前記第1の撮像素子からの出力信号から得られた2以上の画像から動体を検出するとともに、前記複数のフォーカスエリアの中ら当該動体の位置に対応するフォーカスエリアを選択する動体検出手段とを有し、前記動体検出手段は、連続撮影の際に、前記ミラー部材の退避状態と退避状態からの復帰とを繰り返す中で、前記制御手段は、前記動体検出手段により選択されたフォーカスエリアの焦点状態を用いてレンズ駆動を行わせることを特徴とするものである。 In order to achieve the above object, an imaging apparatus according to the present invention includes a first imaging element, a second imaging element, and a first state that guides light from a subject that has passed through a lens to the second imaging element. A mirror member having a second state for guiding light from the subject that has passed through the lens to the first image sensor by retracting, and a plurality of output signals from the second image sensor . focus detection means for detecting a focus state of the focus area, as well as predicting the lenses driving amount from the result of the focus state of the multiple times that are repeatedly detected by the focus detection means, to perform the lens driving by the prediction calculation result and control means for, while detecting movement from the first of two or more images obtained from the output signal from the imaging device, a focus area that corresponds to the position of the middle et the body of the plurality of focus areas And a moving object detection means for selecting, said moving object detecting means, during the continuous shooting, in repeating the return from the retracted state and the retracted state of the mirror member, the control means, the moving object detection The lens driving is performed using the focus state of the focus area selected by the means.
本発明によれば、レリーズ時間が長い場合にも、動体である被写体を見失うことを少なくすることができる撮像装置を提供できるものである。 According to the present invention, it is possible to provide an imaging apparatus that can reduce the loss of sight of a moving subject even when the release time is long.
本発明を実施するための形態は、以下の実施例1および2に示す通りである。 The mode for carrying out the present invention is as shown in Examples 1 and 2 below.
図1は、本発明の実施例1に係る撮像装置である一眼レフカメラの概略を示す構成図である。 FIG. 1 is a configuration diagram illustrating an outline of a single-lens reflex camera that is an imaging apparatus according to Embodiment 1 of the present invention.
図1において、1は撮影レンズであり、便宜上2枚のレンズで示したが、実際は多数のレンズから構成されている。2はメインミラーであり、観察状態と撮影状態に応じて撮影光路に対して斜設又は退去される。3はサブミラーであり、撮影光路に対して斜設されたメインミラー2を透過した光束をカメラ本体の下方へ向けて反射する。4はシャッタである。5はCCD型、CMOS型等の固体撮像素子(以下、撮像素子)である。6は焦点検出部であり、結像面近傍に配置されたフィールドレンズ6a、反射ミラー6b,6c、2次結像レンズ6d、絞り6e及び複数のCCD等のAFセンサ6f等から構成されて、周知の位相差方式により焦点検出を行う。7はファインダ光路変更用のペンタプリズムである。
In FIG. 1, reference numeral 1 denotes a photographic lens, which is shown as two lenses for convenience, but actually includes a large number of lenses.
撮影レンズ1を通過した被写体からの光Aの一部はメインミラー2で反射されてペンタプリズム7に入射して接眼部に導かれ、残りの光はメインミラー2を通過してサブミラー3を介して焦点検出部6へ導かれる。メインミラー2とサブミラー3は、観察時には、図1のように撮影光路に進入した状態にあるが、撮影時には、撮影光路から退去され、被写体からの光Aは撮像素子5に導かれることになる。つまり、撮像素子5の露光のためのレリーズ中は、焦点検出部6へは光が導かれず、焦点状態の検出が不能となる。
Part of the light A from the subject that has passed through the photographing lens 1 is reflected by the
図2は、上記一眼レフカメラの電気的構成を示すブロック図である。 FIG. 2 is a block diagram showing an electrical configuration of the single-lens reflex camera.
図2において、501はカメラ制御部であり、例えば内部にCPU、ROM、RAM、A/D変換機能を有するマイクロコンピュータである。カメラ制御部501はROMに格納されたカメラシーケンス・プログラムに従って、自動露出制御機能、自動焦点調節機能等を用いてカメラの一連の動作を行う。そのために、カメラ制御部501は同期式通信用信号、通信選択信号を用いて、カメラ周辺回路およびレンズと通信して、各々の回路やレンズ等の動作を制御する。
In FIG. 2,
502は複数のエリアセンサ(以下、センサ部)により構成されるAFセンサ(図1のAFセンサ6fに相当)である。503はAFセンサ502から出力された信号を公知の方法を用いて位相差を検出する位相差検出部、504は位相差検出部503において検出された位相差からデフォーカス量を演算するデフォーカス量演算部である。505はレンズ駆動量演算部であり、入力されるデフォーカス量を用いてレンズ駆動量の演算を行い、また過去のデフォーカス量、その時間間隔と、後述の動体検出部506より入力される動体検出の結果により、動体予測によるレンズ駆動量を演算する。
506は内部に画像を記憶する撮影画面保存用RAMを有する動体検出部、507は光電変換により生成された信号をA/D変換により画像信号として出力する撮像素子(図1の撮像素子5に相当)である。508は撮像素子507により出力された画像信号を補正する補正処理部、509は補正処理部508により補正された信号から画像処理を行う画像処理部である。撮像素子507から画像処理部509などを介して画像データが生成され、RAM510に記憶される。また、この画像データは上記動体検出部506にも出力され、ここで動体の差分値演算などにより動体検出が行われ、その検出結果がレンズ駆動量演算部505に出力される。511はズームレンズ(図1の撮影レンズ1に含まれる)、512は絞り、513はレンズ(図1の撮影レンズ1に含まれるフォーカスレンズ)、515はミラー(図1のメインミラー2およびサブミラー3に相当)である。514はシャッタ515(図1のシャッタ4に相当)である。
次に、上記構成における一眼レフカメラの一連の動作について、図3のフローチャートに従って説明する。 Next, a series of operations of the single-lens reflex camera having the above configuration will be described with reference to the flowchart of FIG.
不図示の電源スイッチがオンされると、カメラ制御部501への給電が開始され、カメラ制御部501は、ステップS001を経て、ステップS002より動作を開始する。まず、ステップS002では、レリーズボタンの第1段押下によりオンとなるスイッチSW1の状態を判定する。スイッチW1がオフであればステップS003へ進み、RAM510に設定されている制御用のフラグ、変数を全てクリアし、初期化する。そして、ステップS002へ戻る。
When a power switch (not shown) is turned on, power supply to the
その後、スイッチSW1がオンするとステップS002からステップS004へ進み、露出制御のための測光動作を実行する。詳しくは、カメラ制御部501は測光センサの出力をアナログ入力端子に入力し、その測光値から最適なシャッタ制御値、絞り制御値を演算してRAM510の所定アドレスへ格納する。そして、レリーズ動作時にはこれらの値に基づいてシャッタ515および絞り512の制御を行う。
Thereafter, when the switch SW1 is turned on, the process proceeds from step S002 to step S004, and a photometric operation for exposure control is executed. Specifically, the
次のステップS005では、フォーカスエリア(以下、AFエリアという)を異にする複数のセンサ部より成るAFセンサ502からの像信号の入力を行う。そして、次のステップS006にて、入力された像信号に基づいて公知の方法でデフォーカス量を演算する焦点検出演算を行う。続くステップS007では、後述する動体検出動作によってセンサ部変更フラグがセットされているか否かを判定し、セットされていなければ直ちにステップS009へ進む。しかし、セットされていればステップS008へ進み、デフォーカス量検出用として使用するAFセンサ502のセンサ部(使用センサ部)を、動体検出部506によって動体が検出されたフォーカスエリアのセンサ部に変更し、ステップS009へ進む。
In the next step S005, an image signal is input from the
次のステップS009では、先のステップS007と同様に動体検出動作によってレンズ駆動抑制フラグがセットされているか否かを判定し、セットされていれば直ちにステップS012へ進む。しかし、セットされていなければステップS010へ進み、予測演算動作を実行する。この予測演算動作は、過去2回以上のデフォーカス量とレンズ駆動量と今回使用するAFセンサ502のセンサ部から得られた今回のデフォーカス量を用いてレンズ513の駆動量の補正を行うものである。その後はステップS011へ進み、先のステップS009で補正されたレンズ駆動量に基づいてレンズ513の駆動を行い、ステップS012へ進む。
In the next step S009, it is determined whether or not the lens drive suppression flag is set by the moving object detection operation as in the previous step S007, and if it is set, the process immediately proceeds to step S012. However, if it is not set, the process proceeds to step S010, and a prediction calculation operation is executed. This prediction calculation operation corrects the driving amount of the
次のステップS012では、レンズ駆動抑制フラグをクリアする。そして、次のステップS013にて、レリーズボタンの第2段押下によりオンとなるスイッチSW2の状態を判定する。その結果、スイッチSW2がオフであればステップS025へ進み、動体検出部506内の画像データを保存するRAMの状態を示す画像データフラグのクリアを行い、ステップS002へ戻る。
In the next step S012, the lens drive suppression flag is cleared. In the next step S013, the state of the switch SW2 that is turned on by pressing the release button in the second stage is determined. As a result, if the switch SW2 is OFF, the process proceeds to step S025, the image data flag indicating the state of the RAM storing the image data in the moving
上記のように、スイッチSW1がオフするか、スイッチSW2がオンするまで、上記の一連の動作を繰り返し実行し、被写体に対して好ましい焦点調節を行う。 As described above, until the switch SW1 is turned off or the switch SW2 is turned on, the above-described series of operations is repeatedly executed to perform preferable focus adjustment on the subject.
上記ステップS013にてスイッチSW2がオンするとステップS014以降へ進み、レリーズ動作を開始する。まず、ステップS014では、レンズ駆動の実行中かどうかを判定し、レンズ駆動中であればステップS015へ進み、レンズ駆動停止命令を送出してレンズ513を停止させ、ステップS016へ進む。また、レンズ駆動中でなければ直ちにステップS016へ進む。
When the switch SW2 is turned on in step S013, the process proceeds to step S014 and subsequent steps to start the release operation. First, in step S014, it is determined whether lens driving is being executed. If lens driving is in progress, the process proceeds to step S015, a lens drive stop command is sent to stop the
次のステップS016では、ミラー514のミラーアップを行う。そして、次のステップS017にて、上記ステップS004の測光動作時に得られた絞り制御値を用いて、絞り512の制御を行わせる。続くステップS018では、上記ステップS016,S017のミラーアップと絞り512の制御が完了したか否かを判定する。いずれかが未完了の場合にはこのステップで待機し、引き続き状態判定を行い、両者の制御が終了したことを判定するとステップS019へ進む。
In the next step S016, the
ステップS019へ進むと、設定されたシャッタ秒時にてシャッタ515の制御を行い、撮像素子507を露光する。シャッタ515の制御が終了するとステップS020へ進み、撮像素子507からの信号を読み込み、補正処理、画像処理などを施す。続くステップS021では、読み込んだ画像を用いて、被写体の動きを検出する動体検出動作を動体検出部506によって行う。この動体検出動作の詳細は図4のフローチャートを用いて後述する。
In step S019, the
ステップS022では、レンズ513に対して、絞り512を開放状態にするように命令を送り、次のステップS023にて、ミラー514のミラーダウンを行う。続くステップS024では、上記ステップS018と同様、ミラーダウンと絞り512の開放が完了するのを待ち、ミラーダウンと絞り512の開放制御がともに完了するとステップS002へ戻り、一連のシーケンスを繰り返す。
In step S022, a command is sent to the
連続的に撮影される場合、つまりスイッチSW2のオン状態が続く場合には、ステップS002ではステップS004へ、同じくステップS013ではステップS014へ、それぞれ進む。この一連の処理の繰り返しにより、ステップS021にて動体検出部506による動体の検出が行われ、その結果がステップS007〜S012の処理に反映されることになる。
When continuous shooting is performed, that is, when the ON state of the switch SW2 continues, the process proceeds to step S004 in step S002 and to step S014 in step S013. By repeating this series of processes, the moving
また、連続的に撮影された後に、スイッチSW2のオンが解除される。すると、ステップS025により画像データフラグがクリアされる為、再び連続撮影を開始したときに、動体検出部506では新たに画像が読み込まれてからステップS021の動体検出が行われ、誤った被写体に対する動体予測が回避される。
In addition, the switch SW2 is turned off after continuous shooting. Then, since the image data flag is cleared in step S025, when continuous shooting is started again, the moving
図4は、図2のステップS021にて実行される動体検出動作の詳細を示すフローチャートである。 FIG. 4 is a flowchart showing details of the moving object detection operation executed in step S021 of FIG.
この動体検出動作はステップS101を経てステップS102より開始される。まずステップS102では、センサ部変更フラグのクリアを行い、次のステップS103にて、動体検出部506に読み込まれた画像の有無を示す画像データフラグを確認する。ここで画像データフラグがセットされていなければステップS104へ進み、セットされていればステップS106へ進む。
This moving object detection operation starts from step S102 via step S101. First, in step S102, the sensor unit change flag is cleared, and in the next step S103, an image data flag indicating the presence or absence of an image read by the moving
画像データフラグがセットされていないとしてステップS104へ進むと、上記ステップS020で読み込まれた画像データを動体検出部506内の撮影画像保存用RAMに読み込む。そして、次のステップS105にて、画像データフラグをセットし、この動体検出サブルーチンを終了する。
If the process proceeds to step S104 assuming that the image data flag is not set, the image data read in step S020 is read into the captured image storage RAM in the moving
また、上記ステップS103にて画像データフラグがセットされていればステップS106へ進み、最新の画像データを動体検出部506内の撮影画像保存用RAMに読み込む。次のステップS107にて、動体検出演算動作を行う。この動体検出演算動作の詳細は図5のフローチャートを用いて後述するが、このステップでは動体検出部506内の撮影画像保存用RAMに保存されている2枚の画像から動体の有無を演算する。そして、動体の有無を示す動体検出フラグをセットまたはクリアし、また、動体が有る場合はその存在するAFエリアのセンサ部を特定する。
If the image data flag is set in step S103, the process proceeds to step S106, and the latest image data is read into the captured image storage RAM in the moving
次のステップS108では、上記ステップS107で得られた動体検出フラグの状態を判定し、動体検出フラグがセットされていればステップS109へ進み、セットされていなければこの動体検出サブルーチンを終了する。ここでの動体検出サブルーチンの終了は、動体検出部506による動体検出情報をステップS010の予測演算に使用させないことを意味する。
In the next step S108, the state of the moving object detection flag obtained in step S107 is determined. If the moving object detection flag is set, the process proceeds to step S109, and if not set, the moving object detection subroutine is terminated. The end of the moving object detection subroutine here means that the moving object detection information by the moving
上記ステップS108にて動体フラグがセットされているとしてステップS109へ進む。そして、ここでは上記ステップS107にて画像の差分値演算により得られた動体の位置情報により動体が検出されたエリアがAFセンサ502の対応AFエリア(以下、対応エリア)か否かを確認する。そして、次のステップS110にて、上記ステップS109の確認結果より、動体が検出されたエリアがAFセンサ502の対応エリアであればステップS111へ進み、AFセンサ502の対応エリアでなければステップS114へ進む。
Since the moving body flag is set in step S108, the process proceeds to step S109. Here, it is confirmed whether or not the area in which the moving object is detected based on the position information of the moving object obtained by calculating the difference value of the image in step S107 is a corresponding AF area (hereinafter referred to as a corresponding area) of the
動体の検出されたエリアがAFセンサ502の対応エリアであるとしてステップS111へ進むと、動体検出エリアに対応するAFセンサ502のセンサ部を示す情報を変数等で保存しておく。上記図3のステップS008では、ここで保存された情報を用いて、デフォーカス量演算用として使用するAFセンサ502のセンサ部の変更を行う。次のステップS112では、上記ステップS111で保存された動体検出エリアに対応するAFセンサ502のセンサ部と、直前にデフォーカス量演算用として使用されたAFセンサ502のセンサ部とを比較し、異なっていなければこの動体検出サブルーチンを終了する。また、異なっていればステップS113へ進み、センサ部変更フラグをセットしてこの動体検出サブルーチンを終了する。
When it is determined that the area where the moving object is detected is a corresponding area of the
上記のように、ステップS110にて動体が検出されたエリアがAFセンサの対応エリアでない、つまり動体の現在位置に対応するAFセンサ502のセンサ部がないと判定した場合はステップS114へ進み、レンズ駆動抑制フラグをセットする。このレンズ駆動抑制フラグがセットされることで、動体が存在するエリアでデフォーカス量を検出することができない場合に、ステップS011でのレンズ駆動が抑制される。このため、誤ったデフォーカス量により予測演算、レンズ513の駆動が行われることを防ぐことができ、高精度な予測演算を行うことが可能となる。
As described above, when it is determined that the area in which the moving object is detected in step S110 is not the corresponding area of the AF sensor, that is, there is no sensor portion of the
このように動体検出部506によって動体検出を行い、動体の検出されたエリアに対応するAFセンサ502のセンサ部の情報を求める。そして、そのAFセンサ502のセンサ部が直前にデフォーカス量演算に使用されたAFセンサのセンサ部と異なるようであれば、センサ部変更フラグをセットし、使用するAFエリア502のセンサ部を図3のステップS008にて変更するようにしている。よって、レンズ駆動量演算部505では、AFセンサ502から得られたデフォーカス量のみならず、デフォーカス量を求めることのできない、レリーズ中であるミラーアップ時にも、撮像素子507からの信号により被写体の情報を得ることが可能になる。これにより、従来ではAFセンサ502のデフォーカス量のみから行っていた予測演算より精度の高い動体予測を行うことができる。
In this way, the moving
また、AFセンサ502の対応エリアに動体が存在しない場合には、予測演算やレンズ513の駆動を行わないことで、誤ったデフォーカス量による予測演算、レンズ駆動を抑制することができ、誤った焦点調節を軽減することが可能となる。
In addition, when there is no moving object in the corresponding area of the
図5は、図4のステップS107にて実行される動体検出演算動作を示すフローチャートである。 FIG. 5 is a flowchart showing the moving object detection calculation operation executed in step S107 of FIG.
この動体検出演算動作はステップS201を経てステップS202より開始される。まず、ステップS202では、読み込まれた2枚の画像の輝度情報の差分値を演算する。そして、次のS203にて、上記ステップS202で求めた2枚の画像の差分値から動体が存在すると思われるような大きな差の有無を検出し、大きな差、つまり動体を検出できればステップS204へ進み、動体を検出できなければステップS205へ進む。 This moving object detection calculation operation starts from step S202 via step S201. First, in step S202, a difference value between luminance information of two read images is calculated. In the next step S203, the presence / absence of a large difference that seems to be a moving object is detected from the difference value between the two images obtained in step S202. If a large difference, that is, a moving object can be detected, the process proceeds to step S204. If no moving object is detected, the process proceeds to step S205.
上記ステップS203にて動体を検出できたとしてステップS204へ進むと、動体検出フラグをセットし、この動体検出演算サブルーチンを終了する。また、動体を検出できないとしてステップS205へ進むと、動体検出フラグをクリアし、この動体検出演算サブルーチンを終了する。 If it is determined in step S203 that a moving object has been detected and the process proceeds to step S204, a moving object detection flag is set, and the moving object detection calculation subroutine ends. If it is determined that the moving object cannot be detected and the process proceeds to step S205, the moving object detection flag is cleared and the moving object detection calculation subroutine is terminated.
以上の動作により、撮像素子507から得られた情報により動体検出部506にて動体の検出を行うことができる。
With the above operation, the moving
上記実施例1によれば、連続撮影中、従来の位相差検出によるデフォーカス検出が行えないレリーズ中であるミラーアップ中でも、撮像素子507からの画像データにより動体検出を行い、その結果を先のデフォーカス検出の結果と合わせて用いるようにしている。よって、動体予測の精度を高め、被写体を見失うことを少なくすることが可能となる。
According to the first embodiment, during continuous shooting, even during a mirror-up state where the conventional defocus detection by phase difference detection cannot be performed, moving object detection is performed based on the image data from the
また、上記実施例1は、撮像素子の光電変換セル群のうち、少なくとも一部が画像信号を形成するため以外の信号(画像のコントラストを示す信号など)を出力する撮像装置に対しても、有効である。この撮像装置は、上記信号によるデフォーカス量から、撮像素子に被写体を結ぶための光学系フォーカスを調節するものである。 In addition, the first embodiment also applies to an imaging apparatus that outputs a signal (such as a signal indicating the contrast of an image) other than at least a part of the photoelectric conversion cell group of the imaging element for forming an image signal. It is valid. This image pickup apparatus adjusts the optical system focus for connecting the subject to the image pickup device from the defocus amount by the signal.
次に、本発明の実施例2に係る一眼レフカメラについて説明する。なお、一眼レフカメラの構成は、図1及び図2と同様である。また、その一連の動作は図3に示すフローチャートと同様であるのでその詳細は省略する。
Next, a single-lens reflex camera according to
本発明の実施例2は、動体検出部506により被写体が撮影面に対して前後方向に動いていることを検出した場合、AFセンサ502から得られる距離情報により動体予測を行う。さらに、被写体が撮影面に対して(光軸における)前後方向のみならず、撮影面に対して上下左右に動いている場合は、従来の動体予測AFに動体検出部506から検出された結果を用いるものである。
In the second embodiment of the present invention, when the moving
まず、図3のステップS021にて実行される動体検出動作について、図6のフローチャートを用いて説明する。 First, the moving object detection operation executed in step S021 of FIG. 3 will be described using the flowchart of FIG.
まず、動体検出部506により動体検出のプログラムが開始されると、ステップS301を経て、ステップS302より動作を開始する。ステップS302からステップS306までは、上記実施例1における図4のステップS102からステップS106と同様に処理が行われる。
First, when the moving object detection program is started by the moving
次のステップS307では、動体検出演算動作を行う。この動体検出演算動作の詳細は図7のフローチャートを用いて後述するが、このステップでは以下の動作を行う。つまり、動体検出部506内の撮影画像保存用RAMに保存されている2枚の画像から動体の有無を演算する。そして、動体の有無を示す動体検出フラグをセットまたはクリアし、動体移動が撮影面に対して前後方向である場合にはそれを示すデフォーカスフラグのセットを行う。また、動体が有る場合はその存在するAFエリアのセンサ部を特定する。
In the next step S307, a moving object detection calculation operation is performed. The details of the moving object detection calculation operation will be described later with reference to the flowchart of FIG. 7, but in this step, the following operation is performed. That is, the presence / absence of a moving object is calculated from the two images stored in the captured image storage RAM in the moving
次のステップS308では、上記ステップS307にて得られた動体検出フラグの状態を判定し、動体検出フラグがセットされていればステップS309へ進み、セットされていなければこの動体検出サブルーチンを終了する。 In the next step S308, the state of the moving object detection flag obtained in step S307 is determined. If the moving object detection flag is set, the process proceeds to step S309, and if not set, the moving object detection subroutine is terminated.
動体検出フラグがセットされているとしてステップS309へ進むと、上記ステップS307にて得られたデフォーカスフラグの状態を判定し、デフォーカスフラグがセットされていればステップS315へ進む。そして、このステップS315では、デフォーカスフラグのクリアを行い、この動体検出サブルーチンを終了する。 If the process proceeds to step S309 assuming that the moving object detection flag is set, the state of the defocus flag obtained in step S307 is determined. If the defocus flag is set, the process proceeds to step S315. In step S315, the defocus flag is cleared, and the moving object detection subroutine is terminated.
また、上記ステップS309にてデフォーカスフラグがセットされていないと判定した場合はステップS310〜S314、ステップS316の処理を行うが、これらは図4のステップS109〜S114と同様であるのでその説明は省略する。 If it is determined in step S309 that the defocus flag has not been set, the processes in steps S310 to S314 and S316 are performed, which are the same as steps S109 to S114 in FIG. Omitted.
図7は、上記ステップS307にて実行される動体検出演算動作を示すフローチャートである。 FIG. 7 is a flowchart showing the moving object detection calculation operation executed in step S307.
この動体検出演算動作はステップS401を経て、ステップS402より開始される。まずステップS402では、読み込まれた2枚の画像の輝度情報の差分値を演算する。そして、次のステップS403にて、上記ステップS402にて求めた2枚の画像の差分値から動体が存在すると思われるような大きな差の有無を検出し、検出できればステップS404へ進み、検出できなければステップS407へ進む。 This moving object detection calculation operation starts from step S402 via step S401. First, in step S402, the difference value between the luminance information of the two read images is calculated. Then, in the next step S403, the presence / absence of a large difference that seems to be a moving object is detected from the difference value between the two images obtained in step S402, and if it can be detected, the process proceeds to step S404. If so, the process proceeds to step S407.
上記ステップS403にて動体を検出できないとしてステップS407へ進むと、ここでは動体検出フラグをクリアし、この動体検出演算サブルーチンを終了する。 If it is determined in step S403 that a moving object cannot be detected and the process proceeds to step S407, the moving object detection flag is cleared here, and the moving object detection calculation subroutine is terminated.
また、上記ステップS403にて動体を検出できたとしてステップS404へ進むと、ここでは動体検出フラグをセットする。そして、次のステップS405にて、検出された動体の動きが撮影面に対して前後方向によるものかどうかを判定し、前後方向のみならず、撮影面に対して上下左右への移動もみられる場合はこの動体検出演算サブルーチンを終了する。また、前後方向にのみに動いているのであればステップS405からステップS406へ進み、デフォーカスフラグをセットしてこの動体検出演算サブルーチンを終了する。 If it is determined in step S403 that a moving object has been detected and the process proceeds to step S404, a moving object detection flag is set here. Then, in the next step S405, it is determined whether or not the detected movement of the moving object is due to the front-rear direction with respect to the photographing surface. Terminates this moving object detection calculation subroutine. If it is moving only in the front-rear direction, the process proceeds from step S405 to step S406, the defocus flag is set, and this moving object detection calculation subroutine is terminated.
以上の動作により、検出された動体の動きが撮影面に対して前後方向によるもののみであれば、AFセンサ502から得られた距離情報により従来の予測演算を用いることで動体の動きを予測することができる。
By the above operation, if the detected motion of the moving object is only in the front-rear direction with respect to the imaging surface, the motion of the moving object is predicted by using the conventional prediction calculation based on the distance information obtained from the
上記実施例2によれば、連続撮影中、従来の位相差検出によるデフォーカス検出が行えないレリーズ中であるミラーアップ中でも、撮像素子507からの画像データにより動体検出を行う。また、検出された動体の動きが撮影面に対して前後方向によるもののみであれば、先のデフォーカス量から動体予測を行う。そして、検出された動体の動きが撮影面に対して前後方向のみならず、撮影面に対して上下左右への移動も見られる場合は、動体検出の結果を先のデフォーカス検出の結果と合わせて用いることで、動体予測の精度をさらに高めることができる。
According to the second embodiment, the moving object is detected based on the image data from the
上記の各実施例の撮像装置である一眼レフカメラは、以下の構成要素を有する。複数のフォーカスエリアでの焦点状態を検出し、撮像手段(撮像素子5)の露光のためのレリーズ時間中は、焦点状態の検出が不能となる焦点検出手段(位相差検出部503及びデフォーカス量演算部504)を有する。さらに、焦点検出手段により繰り返し検出された過去複数回および今回の焦点状態から今回の焦点調節のためのレンズ駆動量を予測する予測演算手段(図3のステップS010)を有する。さらに、予測演算手段の予測演算結果によりレンズ駆動を行わせる制御手段(図3のステップS011)を有する。さらに、連続撮影の時に撮影された2以上の画像から動体を検出するとともに、動体が位置するフォーカスエリアの位置を検出する動体検出手段(図4)を有する。この動体検出手段は、前記連続撮影中に動体を検出した場合には、動体が位置するフォーカスエリアが変更されたか否かを判定する(図4のステップS110−S113)。さらに、制御手段は、動体検出手段によりフォーカスエリアの変更が判定された場合には、変更されたフォーカスエリアの焦点状態を用いて(図3のステップS008)予測演算手段の演算動作をさせる。
The single-lens reflex camera which is an imaging device of each of the above embodiments includes the following components. The focus state is detected in a plurality of focus areas, and the focus detection unit (the phase
制御手段は、動体検出手段により動体を検出しても動体が位置するフォーカスエリアの位置を検出しない(図4のステップS114)場合には、予測演算手段の予測演算およびレンズ駆動を禁止する(図3のステップS009のON→S012)。 The control means prohibits the prediction calculation and the lens driving of the prediction calculation means when the position of the focus area where the moving object is located is not detected even if the moving object is detected by the moving object detection means (step S114 in FIG. 4). 3 step S009 is ON → S012).
制御手段は、動体検出手段が動体を検出しない(図4のステップS108のNO)場合には、動体検出手段による動体検出情報を予測演算手段に使用させない(図4のステップS108から直ちにリターン)。 When the moving body detection unit does not detect the moving body (NO in step S108 in FIG. 4), the control unit does not cause the prediction calculation unit to use the moving body detection information by the moving body detection unit (return immediately from step S108 in FIG. 4).
動体検出手段は、光軸における動体の前後方向の動きをも検出する(図7のステップS405)。制御手段は、動体検出手段が動体の前後方向の動きのみを検出した(図7のステップS406)場合には、動体検出手段による動体検出情報を前記予測演算手段に使用させない(図6のステップS309のYES→S315→リターン)。 The moving body detection means also detects the movement of the moving body in the front-rear direction on the optical axis (step S405 in FIG. 7). When the moving object detection means detects only the movement of the moving object in the front-rear direction (step S406 in FIG. 7), the control means does not cause the prediction calculation means to use the moving object detection information from the moving object detection means (step S309 in FIG. 6). YES → S315 → Return).
501 カメラ制御部
502 AFセンサ
503 位相差検出部
504 デフォーカス量演算部
505 レンズ駆動量演算部
506 動体検出部
507 撮像素子
513 レンズ
501
Claims (4)
第2の撮像素子と、
レンズを通過した被写体からの光を前記第2の撮像素子に導く第1の状態と、退避することで前記レンズを通過した被写体からの光を前記第1の撮像素子に導く第2の状態とを有するミラー部材と、
前記第2の撮像素子からの出力信号を用いて複数のフォーカスエリアでの焦点状態を検出する焦点検出手段と、前記焦点検出手段により繰り返し検出された複数回の焦点状態の結果からレンズ駆動量を予測するとともに、当該予測演算結果によりレンズ駆動を行わせる制御手段と、
前記第1の撮像素子からの出力信号から得られた2以上の画像から動体を検出するとともに、前記複数のフォーカスエリアの中ら当該動体の位置に対応するフォーカスエリアを選択する動体検出手段とを有し、
前記動体検出手段は、連続撮影の際に、前記ミラー部材の退避状態と退避状態からの復帰とを繰り返す中で、前記制御手段は、前記動体検出手段により選択されたフォーカスエリアの焦点状態を用いてレンズ駆動を行わせることを特徴とする撮像装置。 A first image sensor;
A second imaging device;
A first state in which light from the subject that has passed through the lens is guided to the second image sensor, and a second state in which light from the subject that has passed through the lens by being retracted is guided to the first image sensor. A mirror member having
Said focus detection means for detecting a focus state of a plurality of focus areas by using the output signal from the second image sensor, lenses driven from the result of the focus state of repeatedly detected more than once by the focus detection means as well as predict the amount, and control means for causing the lens driving by the prediction calculation result,
And detects the first body from two or more images obtained from the output signal from the imaging device, a moving object detection means for selecting a focus area that corresponds to the position of the middle et the body of the plurality of focus areas Have
The moving object detection unit, when the continuous shooting, in repeating the return from the retracted state and the retracted state of the mirror member, the control means, the focus state of the focus area selected by said moving object detecting means An imaging apparatus characterized by being used to drive a lens .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010117893A JP5550448B2 (en) | 2010-05-24 | 2010-05-24 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010117893A JP5550448B2 (en) | 2010-05-24 | 2010-05-24 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011247919A JP2011247919A (en) | 2011-12-08 |
JP5550448B2 true JP5550448B2 (en) | 2014-07-16 |
Family
ID=45413306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010117893A Expired - Fee Related JP5550448B2 (en) | 2010-05-24 | 2010-05-24 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5550448B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008052225A (en) * | 2006-08-28 | 2008-03-06 | Olympus Imaging Corp | Camera, focus control method, and program |
JP4978449B2 (en) * | 2007-12-10 | 2012-07-18 | ソニー株式会社 | Imaging device |
JP2010008507A (en) * | 2008-06-24 | 2010-01-14 | Olympus Imaging Corp | Camera |
JP5161712B2 (en) * | 2008-09-03 | 2013-03-13 | キヤノン株式会社 | Imaging apparatus and imaging method |
-
2010
- 2010-05-24 JP JP2010117893A patent/JP5550448B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011247919A (en) | 2011-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1351086B1 (en) | Image pickup apparatus with a focus adjusting device and an exposure system | |
JP6749791B2 (en) | Imaging device and automatic focusing method | |
JP2007248782A (en) | Focusing device and camera | |
JP2008160208A (en) | Optical apparatus | |
JP5056168B2 (en) | Focus adjustment device and imaging device | |
JP2005107213A (en) | Automatic focusing device for camera | |
JP5241096B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2004112529A (en) | Camera and camera system | |
JP5879736B2 (en) | Image tracking device and imaging device | |
JP2010152140A (en) | Camera system and conversion adaptor | |
JP4560420B2 (en) | Imaging device | |
JP2011107501A (en) | Focusing device and imaging apparatus | |
JP4992761B2 (en) | LENS DRIVE DEVICE AND IMAGING DEVICE | |
JP5966299B2 (en) | FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME | |
JP5256847B2 (en) | Imaging device | |
JP2007156304A (en) | Camera, camera system, and interchangeable lens device | |
JP5359150B2 (en) | Imaging device | |
JP5550448B2 (en) | Imaging device | |
JP5871196B2 (en) | Focus adjustment device and imaging device | |
JP2008191391A (en) | Focusing mechanism, and camera | |
JP2010136097A (en) | Camera apparatus and camera system | |
JP5590850B2 (en) | Imaging device and focus control method of imaging device | |
JP5789937B2 (en) | Image tracking device and imaging device | |
JP5447549B2 (en) | Focus adjustment device and imaging device | |
JP6455582B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140520 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5550448 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |