JP2010200138A - Photographic subject tracking device - Google Patents

Photographic subject tracking device Download PDF

Info

Publication number
JP2010200138A
JP2010200138A JP2009044306A JP2009044306A JP2010200138A JP 2010200138 A JP2010200138 A JP 2010200138A JP 2009044306 A JP2009044306 A JP 2009044306A JP 2009044306 A JP2009044306 A JP 2009044306A JP 2010200138 A JP2010200138 A JP 2010200138A
Authority
JP
Japan
Prior art keywords
image
subject
tracking
tracking device
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009044306A
Other languages
Japanese (ja)
Inventor
Takeji Ikeda
武治 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009044306A priority Critical patent/JP2010200138A/en
Publication of JP2010200138A publication Critical patent/JP2010200138A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve photographic subject tracking performance under a flicker light source. <P>SOLUTION: Images produced by an image forming optical system are repeatedly imaged. A reference image of a photographic subject for tracking is established from the imaged first image (initial image). Simultaneously in a second image (comparison image) imaged after the first image, the position of a partial image similar to the reference image is searched. When tracking the photographic subject for tracking moving in an imaging screen, an exposure time of imaging means is controlled so that imaging of the first image takes a longer exposure time T0 than imaging of the second image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は被写体追尾装置に関する。   The present invention relates to a subject tracking device.

移動被写体を撮影する際に、画面内の指定部分の被写体像をテンプレート画像(基準画像)として取得し、繰り返し撮影する画像の中でテンプレート画像と類似した被写体像の位置を検索(テンプレートマッチング)し、画面内を移動する被写体を追尾するようにした被写体追尾装置が知られている(例えば、特許文献1参照)。   When shooting a moving subject, the subject image of the specified part in the screen is acquired as a template image (reference image), and the position of the subject image similar to the template image is searched (template matching) among images repeatedly shot. A subject tracking device that tracks a subject moving within a screen is known (see, for example, Patent Document 1).

特開2006−058431号公報JP 2006-058431 A

ところで、蛍光灯などのフリッカ光源下では、フリッカの影響を受けて色や明るさが変化するため、テンプレート画像(基準画像)と比較画像の類似を正しく判定することが難しく、誤判定を起こしやすい。特に、テンプレート画像を取得するときにフリッカの影響を受けると、テンプレート画像自体が正しい追尾対象の被写体像と異なるものになり、対象被写体を追尾することが困難になる。
この問題を解決するために、画像を複数回取得して平均化したり、フリッカ周期よりも長い露光時間で画像を取得することが考えられるが、そうすると被写体追尾サイクルが長くなり、追尾性能が低下することになる。
By the way, under a flicker light source such as a fluorescent lamp, the color and brightness change under the influence of flicker. Therefore, it is difficult to correctly determine the similarity between the template image (reference image) and the comparison image, and erroneous determination is likely to occur. . In particular, when a template image is acquired, if it is affected by flicker, the template image itself is different from the correct tracking target subject image, making it difficult to track the target subject.
In order to solve this problem, it is conceivable to acquire and average images a plurality of times, or to acquire images with an exposure time longer than the flicker cycle. However, if this is done, the subject tracking cycle becomes longer and the tracking performance decreases. It will be.

本発明は、結像光学系により結像された画像を繰り返し撮像する撮像手段と、撮像手段により撮像された第1画像から追尾対象被写体の基準画像を設定する基準設定手段と、撮像手段により第1画像以後に撮像された第2画像において基準画像に類似する部分画像の位置を探索する位置探索手段とを備え、撮影画面内を移動する追尾対象被写体を追尾する被写体追尾装置に適用される。
そして、撮像手段の露光時間を制御する露光制御手段を備え、露光制御手段は、第1画像を撮像するときは第2画像を撮像するときよりも長い露光時間を設定する。
According to the present invention, an imaging unit that repeatedly captures an image formed by the imaging optical system, a reference setting unit that sets a reference image of a tracking target subject from the first image captured by the imaging unit, and an imaging unit The present invention is applied to a subject tracking device that includes position search means for searching for the position of a partial image similar to a reference image in a second image captured after one image, and that tracks a tracking target subject that moves within a shooting screen.
An exposure control unit that controls the exposure time of the imaging unit is provided, and the exposure control unit sets a longer exposure time than when the second image is captured when the first image is captured.

本発明によれば、追尾対象の被写体像を正確に表す基準画像(テンプレート画像)を得ることができ、このような基準画像を用いて被写体追尾における高い精度と信頼性を実現することができる。また、第2画像(追尾比較画像)を取得しながら被写体追尾制御を行う際の追尾サイクルが短くなり、被写体追尾の高い応答性を維持することができる。   According to the present invention, a reference image (template image) that accurately represents a subject image to be tracked can be obtained, and high accuracy and reliability in subject tracking can be realized using such a reference image. In addition, the tracking cycle when subject tracking control is performed while acquiring the second image (tracking comparison image) is shortened, and high responsiveness of subject tracking can be maintained.

一実施の形態の画像認識装置および焦点調節装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の構成を示す図The figure which shows the structure of the imaging device (single-lens reflex digital still camera) provided with the image recognition apparatus and focus adjustment apparatus of one Embodiment ボディ駆動制御装置の詳細な構成を示す図The figure which shows the detailed structure of a body drive control apparatus 第2撮像素子の詳細な構成を示す正面図Front view showing a detailed configuration of the second image sensor 第2撮像素子の各画素の詳細を示す正面図Front view showing details of each pixel of the second image sensor 一実施の形態の被写体追尾方法を説明するための図The figure for demonstrating the to-be-photographed object tracking method of one embodiment. 一実施の形態の被写体追尾方法を説明するための図The figure for demonstrating the to-be-photographed object tracking method of one embodiment. 一実施の形態の被写体追尾方法を説明するための図The figure for demonstrating the to-be-photographed object tracking method of one embodiment. 一実施の形態の被写体追尾処理を示すフローチャートFlowchart showing subject tracking processing of an embodiment 一実施の形態の追尾制御の初期処理を示す示すフローチャートThe flowchart which shows the initial process of the tracking control of one embodiment 一実施の形態の第2撮像素子16による被写体追尾用の初期画像と比較画像の取得タイミングを示すタイミングチャートTiming chart showing the acquisition timing of the initial image for tracking the subject and the comparative image by the second image sensor 16 of the embodiment 従来の被写体追尾装置における追尾初期画像と追尾比較画像の取得タイミングを示すタイミングチャートTiming chart showing acquisition timing of tracking initial image and tracking comparison image in conventional subject tracking device 従来の被写体追尾装置における追尾初期画像と追尾比較画像の取得タイミングを示すタイミングチャートTiming chart showing acquisition timing of tracking initial image and tracking comparison image in conventional subject tracking device 従来の被写体追尾装置における連写時の追尾初期画像と追尾比較画像の取得タイミングを示すタイミングチャートTiming chart showing the acquisition timing of the tracking initial image and tracking comparison image during continuous shooting in the conventional subject tracking device 一実施の形態の被写体追尾装置における連写時の追尾初期画像と追尾比較画像の取得タイミングを示すタイミングチャートTiming chart showing the acquisition timing of the tracking initial image and tracking comparison image during continuous shooting in the subject tracking device of the embodiment

撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら対象を追尾する被写体追尾装置を一眼レフデジタルスチルカメラに搭載した一実施の形態を説明する。   The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount in one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image). A single-lens reflex digital still camera that has an image tracking function that tracks the subject to be tracked while searching for a position (template matching), and that tracks the target while driving the photographic lens with the AF function and the image tracking function. A mounted embodiment will be described.

図1は、一実施の形態の被写体追尾装置を備えた一眼レフデジタルスチルカメラ1の構成を示す。なお、図1では本願発明と直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1は、カメラ本体2に交換レンズ3が交換可能に装着される。カメラ本体2には被写体像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。   FIG. 1 shows a configuration of a single-lens reflex digital still camera 1 including a subject tracking device according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits not directly related to the present invention are omitted. In a camera 1 according to an embodiment, an interchangeable lens 3 is attached to a camera body 2 in a replaceable manner. The camera body 2 is provided with a first image sensor 4 for capturing a subject image and recording the image. The first image sensor 4 can be constituted by a CCD, a CMOS, or the like. At the time of photographing, the quick return mirror 5 and the sub mirror 6 are retracted to a position outside the photographing optical path indicated by a solid line, the shutter 7 is opened, and a subject image is formed on the light receiving surface of the first image sensor 4 by the photographing lens 8.

カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。   At the bottom of the camera body 2, a focus detection optical system 9 and a distance measuring element 10 for detecting the focus adjustment state of the photographing lens 8 are provided. In this embodiment, an example is shown in which a focus detection method based on a pupil division type phase difference detection method is employed. The focus detection optical system 9 guides the pair of focus detection light fluxes that have passed through the photographing lens 8 to the light receiving surface of the distance measuring element 10 and forms a pair of optical images. The distance measuring element 10 includes, for example, a pair of CCD line sensors, and outputs a focus detection signal corresponding to the pair of optical images. Before shooting, the quick return mirror 5 and the sub mirror 6 are set at positions in the shooting optical path as indicated by broken lines, and the pair of focus detection light beams from the shooting lens 8 are transmitted through the half mirror portion of the quick return mirror 5. Then, the light is reflected by the sub mirror 6 and guided to the focus detection optical system 9 and the distance measuring element 10.

カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写体像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写体像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写体像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写体像を視認することができる。   A finder optical system is provided on the upper part of the camera body 2. Before shooting, the quick return mirror 5 and the sub mirror 6 are in positions indicated by broken lines, and subject light from the shooting lens 8 is reflected by the quick return mirror 5 and guided to the focusing screen 11, and the subject image is displayed on the focusing screen 11. Form an image. The liquid crystal display element 12 superimposes and displays information such as a focus detection area mark on the subject image formed on the focusing screen 11 and displays various photographing information such as an exposure value at a position outside the subject image. The subject image on the focusing screen 11 is guided to the eyepiece window 15 via the penta roof prism 13 and the eyepiece lens 14 so that the photographer can visually recognize the subject image.

また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写体像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写体像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。第2撮像素子16は被写体像に応じた画像信号を出力する。詳細を後述するが、この第2撮像素子16により撮像された被写体像に基づいて被写体追尾制御と露出演算が行われる。   The finder optical system at the top of the camera body 2 is provided with a second image sensor 16 that captures a subject image for subject tracking and photometry. The subject image formed on the focusing screen 11 is re-imaged on the light receiving surface of the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. The second image sensor 16 outputs an image signal corresponding to the subject image. Although details will be described later, subject tracking control and exposure calculation are performed based on the subject image picked up by the second image sensor 16.

カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、シャッターボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。   The camera body 2 is also provided with a body drive control device 19 and an operation member 20. The body drive control device 19 is constituted by peripheral components such as a microcomputer, a memory, and an A / D converter, the details of which will be described later, and performs various controls and calculations of the camera 1. The operation member 20 includes a switch and a selector for operating the camera 1 such as a shutter button, a focus detection area selection switch, and a shooting mode selection switch.

交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で体表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの設定位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などのレンズ情報が記憶されている。   The interchangeable lens 3 is provided with a zooming lens 8a, a focusing lens 8b, a diaphragm 21, a lens drive control device 22, and the like. In this embodiment, the photographic lens 8 is represented by a zoom lens 8a, a focusing lens 8b, and a diaphragm 21, but the configuration of the photographic lens 8 is not limited to the configuration shown in FIG. The lens drive control device 22 includes a microcomputer (not shown) and peripheral components such as a memory, a drive circuit, and an actuator, and performs drive control of the lenses 8a and 8b and the diaphragm 21 and detection of their set positions. Lens information such as a focal length and an open aperture value of the interchangeable lens 3 is stored in a memory built in the lens drive control device 22.

ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行い、ボディ駆動制御装置19からレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22からボディ駆動制御装置19へレンズ情報や絞り情報を送信する。   The body drive control device 19 and the lens drive control device 22 communicate via the contact 23 of the lens mount, and transmit information such as a lens drive amount and an aperture value from the body drive control device 19 to the lens drive control device 22. Lens information and aperture information are transmitted from the lens drive control device 22 to the body drive control device 19.

図2はボディ駆動制御装置19の詳細な構成を示す。なお、本願発明と直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。マイクロコンピューター19cは、ソフトウエア形態により追尾制御部19e、露出制御部19f、焦点検出演算部19gおよびレンズ駆動量演算部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報、あるいは詳細を後述する類似判定しきい値Dthおよび色しきい値MaxThなどを記憶する。   FIG. 2 shows a detailed configuration of the body drive control device 19. Note that illustration and description of control functions not directly related to the present invention are omitted. The body drive control device 19 includes an element control circuit 19a, an A / D converter 19b, a microcomputer 19c, a memory 19d, and the like. The element control circuit 19 a controls charge accumulation and reading of the second image sensor 16. The A / D converter 19b converts the analog image signal output from the second image sensor 16 into a digital image signal. The microcomputer 19c constitutes a tracking control unit 19e, an exposure control unit 19f, a focus detection calculation unit 19g, and a lens drive amount calculation unit 19h according to a software form. The memory 19d stores information such as a template image for image tracking and a defocus amount, lens information such as a focal length of the photographing lens 8, an open F value, an aperture value, a conversion coefficient from an image shift amount to a defocus amount, or details. Stores a similarity determination threshold value Dth and a color threshold value MaxTh, which will be described later.

追尾制御部19eは、第2撮像素子16により撮像した被写体像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させ、その後に繰り返し撮影される画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。露出演算部19fは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。   The tracking control unit 19e generates a template image (reference image) of the subject image captured by the second image sensor 16 and corresponding to the tracking target position manually specified by the photographer or the tracking target position automatically set by the camera 1. Image) is stored in the memory 19d, and the position of the target is recognized by searching for an image area that matches or is similar to the template image from images repeatedly photographed thereafter. The exposure calculation unit 19f calculates an exposure value based on the image signal captured by the second image sensor 16.

焦点検出演算部19gは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳細を後述するが、撮影レンズ8の撮影画面内には複数の焦点検出エリアが設定されており、測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19gは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォーカス量を検出する。レンズ駆動量演算部19hは検出されたデフォーカス量をレンズ駆動量に変換する。レンズ駆動制御装置22は、レンズ駆動量演算部19hによりレンズ駆動量にしたがってフォーカシングレンズ8bを駆動して焦点調節を行う。   The focus detection calculation unit 19g detects the focus adjustment state of the photographing lens 8, here the defocus amount, based on the focus detection signal corresponding to the pair of optical images output from the distance measuring element 10. Although details will be described later, a plurality of focus detection areas are set in the shooting screen of the shooting lens 8, and the distance measuring element 10 outputs a focus detection signal corresponding to a pair of optical images for each focus detection area. Then, the focus detection calculation unit 19g detects the defocus amount based on the focus detection signal corresponding to the pair of optical images for each focus detection area. The lens driving amount calculation unit 19h converts the detected defocus amount into a lens driving amount. The lens drive control device 22 performs the focus adjustment by driving the focusing lens 8b according to the lens drive amount by the lens drive amount calculation unit 19h.

図3は第2撮像素子16の詳細な構成を示す正面図である。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)26(ここでは横16個×縦12個=192個)を備えている。各画素26は図4に示すように3個の部分26a、26b、26cに分割され、これらの部分26a、26b、26cにはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素26ごとに被写体像のRGB信号を出力することができる。   FIG. 3 is a front view showing a detailed configuration of the second image sensor 16. The second imaging element 16 includes a plurality of pixels (photoelectric conversion elements) 26 (here, horizontal 16 × vertical 12 = 192) arranged in a matrix. As shown in FIG. 4, each pixel 26 is divided into three portions 26a, 26b, and 26c, and primary color filters of red R, green G, and blue B are provided in these portions 26a, 26b, and 26c, respectively. . Thereby, the RGB signal of the subject image can be output for each pixel 26.

次に、一実施の形態の被写体追尾動作を説明する。図5〜図7は一実施の形態の被写体追尾方法を説明するための図、図8〜図9は一実施の形態の被写体追尾処理を示すフローチャートである。また、図10〜図14は第2撮像素子16による被写体追尾用の初期画像と比較画像の取得タイミングを示すタイミングチャートである。   Next, a subject tracking operation according to an embodiment will be described. 5 to 7 are diagrams for explaining a subject tracking method according to an embodiment, and FIGS. 8 to 9 are flowcharts illustrating subject tracking processing according to the embodiment. 10 to 14 are timing charts showing the acquisition timing of the initial image for tracking the subject and the comparative image by the second image sensor 16.

シャッターボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光は焦点板11上に結像される。そして、焦点板11上の被写体像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16から被写体像信号が繰り返し出力される。   The quick return mirror 5 is set in the photographing optical path shown by the broken line in FIG. 1 except when the shutter button is fully pressed to shoot, and the subject light incident from the photographing lens 8 forms an image on the focusing screen 11. Is done. The subject image on the focusing screen 11 is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and the subject image signal is repeatedly output from the second image sensor 16.

撮影レンズ8の撮影画面には複数の焦点検出エリアが設定されており、液晶表示素子12により焦点板11上の被写体像にエリアマークを重畳し、各焦点検出エリアの位置を表示する。この一実施の形態では、図5に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45g(図中にはa〜gと表記)が設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。   A plurality of focus detection areas are set on the shooting screen of the shooting lens 8, and an area mark is superimposed on the subject image on the focusing screen 11 by the liquid crystal display element 12 to display the position of each focus detection area. In this embodiment, as shown in FIG. 5, an example is shown in which focus detection areas 45a to 45g (denoted as a to g in the figure) are set at seven locations in the photographing screen. When an arbitrary area is selected by the focus detection area selection switch of the operation member 20, the mark of the area is lit up.

図5に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45bが選択され、この状態で操作部材20のシャッターボタンが半押しされると、焦点検出エリア45bが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対称の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象の被写体を手動で指定する例を示すが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。   As shown in FIG. 5, when the focus detection area 45b is selected by the focus detection area selection switch of the operation member 20, and the shutter button of the operation member 20 is half-pressed in this state, the focus detection area 45b is stored as the first AF area. 19d. Thereby, a tracking symmetrical subject is designated. In this example, the photographer selects the first AF area and manually designates the subject to be tracked. For example, in a camera having a function of automatically recognizing the subject, the first AF is performed based on the subject recognition result. An area and a tracking target subject may be set.

図8のステップ1において、第2撮像素子16により被写体追尾用の初期画像を取得する。この追尾初期画像は画像追尾処理を開始して最初に取得する画像であり、この追尾初期画像から上述したテンプレート画像(基準画像)を生成する。追尾初期画像を取得した後は、テンプレート画像と比較するための被写体追尾用の比較画像を繰り返し取得することになる。   In step 1 of FIG. 8, an initial image for subject tracking is acquired by the second image sensor 16. This initial tracking image is an image acquired first after starting the image tracking process, and the above-described template image (reference image) is generated from this initial tracking image. After acquiring the tracking initial image, a subject tracking comparison image for comparison with the template image is repeatedly acquired.

図10は、一実施の形態の第2撮像素子16による被写体追尾用の初期画像と比較画像の取得タイミングを示すタイミングチャートである。この一実施の形態では、第2撮像素子16で追尾初期画像を取得するための電荷蓄積(露光)を行うときには、電荷蓄積時間(露光時間)T0を、それ以降の追尾比較画像を所得するための電荷蓄積を行うときの電荷蓄積時間T1よりも長くし、フリッカ周期Tとほぼ等しい時間とする。フリッカ周期Tには、第2撮像素子16により被写体輝度の変化周期を計測して求めた値を用いてもよいし、あるいは商用電源周波数50Hzと60Hzを代表して50Hzの周期を用いてもよい。   FIG. 10 is a timing chart showing the acquisition timing of the subject tracking initial image and the comparative image by the second image sensor 16 according to the embodiment. In this embodiment, when charge accumulation (exposure) for acquiring a tracking initial image is performed by the second image sensor 16, the charge accumulation time (exposure time) T0 is used, and the tracking comparison image thereafter is obtained. The charge accumulation time T1 is longer than the charge accumulation time T1, and is approximately equal to the flicker period T. As the flicker cycle T, a value obtained by measuring the subject luminance change cycle by the second image sensor 16 may be used, or a cycle of 50 Hz may be used as representative of commercial power supply frequencies of 50 Hz and 60 Hz. .

なお、第2撮像素子16により被写体輝度の変化を測定し、被写体輝度に周期的な変化がある場合には撮影時の光源がフリッカ光源であると判定し、その場合にのみ、図10に示す露光制御を行うようにしてもよい。あるいは、ホワイトバランス設定においてフリッカ光源が選択されたときのみ、図10に示す露光制御を行うようにしてもよい。これにより、フリッカ光源下において確実に図10に示す露光制御が実行される。   Note that a change in subject brightness is measured by the second image sensor 16, and if there is a periodic change in subject brightness, it is determined that the light source at the time of shooting is a flicker light source, and only in that case is shown in FIG. Exposure control may be performed. Alternatively, the exposure control shown in FIG. 10 may be performed only when the flicker light source is selected in the white balance setting. Thereby, the exposure control shown in FIG. 10 is reliably executed under the flicker light source.

図11は、従来の被写体追尾装置における追尾初期画像と追尾比較画像の取得タイミングを示すタイミングチャートである。追尾初期画像と追尾比較画像を取得するための電荷蓄積時間T3は等しく、フリッカ周期Tよりも短い。一般に、被写界の輝度を測定するための測光用の電荷蓄積においては、被写界の最も明るい部分の輝度が飽和しないように蓄積ゲインを調整する、いわゆるピークAGC(Auto Gain Control)により蓄積時間を決定するが、被写体追尾用の電荷蓄積では、被写体の色情報を取得しなければならないため、被写界の平均輝度付近で蓄積ゲインを調整する、いわゆる被写体重視AGCにより蓄積時間を決定する。通常、被写体重視AGCで決定した蓄積時間は、ピークAGCで決定した蓄積時間よりも長くなる場合が多い。   FIG. 11 is a timing chart showing the acquisition timing of the tracking initial image and the tracking comparison image in the conventional subject tracking device. The charge accumulation time T3 for obtaining the tracking initial image and the tracking comparison image is equal and shorter than the flicker cycle T. In general, in charge accumulation for photometry for measuring the luminance of the object scene, accumulation is performed by so-called peak AGC (Auto Gain Control) that adjusts the accumulation gain so that the luminance of the brightest part of the object scene is not saturated. Although the time is determined, since the color information of the subject must be acquired in charge accumulation for subject tracking, the accumulation time is determined by so-called subject-oriented AGC that adjusts the accumulation gain in the vicinity of the average luminance of the object scene. . Usually, the accumulation time determined by subject-oriented AGC is often longer than the accumulation time determined by peak AGC.

被写体重視AGCにより追尾初期画像と追尾比較画像の取得を行う場合に、フリッカ周期Tのどの範囲で電荷蓄積を行うかを定めることができないため、例えば図11に示すように、フリッカ周期Tの内の輝度の谷間の範囲で追尾初期画像の電荷蓄積が行われると、取得した追尾初期画像の輝度情報および色情報が乏しいものとなり、追尾対象の被写体像を正確に表すテンプレート画像が得られない。そのため、このようなテンプレート画像を用いて被写体追尾を行っても、十分な追尾性能を期待することはできない。   When the tracking initial image and the tracking comparison image are acquired by subject-oriented AGC, it is not possible to determine in which range of the flicker cycle T the charge accumulation is performed. For example, as shown in FIG. If the charge accumulation of the tracking initial image is performed in the range of the luminance valley, the luminance information and the color information of the acquired tracking initial image become scarce, and a template image that accurately represents the subject image to be tracked cannot be obtained. Therefore, even if subject tracking is performed using such a template image, sufficient tracking performance cannot be expected.

そこで、図12に示すように、追尾初期画像と追尾比較画像を取得するための電荷蓄積時間T4をフリッカ周期Tとほぼ等しい時間にすると、追尾比較画像を取得して被写体追尾制御を行う追尾サイクルT5が長くなり、被写体追尾の応答性が低下してしまう。   Therefore, as shown in FIG. 12, when the charge accumulation time T4 for acquiring the tracking initial image and the tracking comparison image is set to a time substantially equal to the flicker cycle T, the tracking cycle for acquiring the tracking comparison image and performing subject tracking control is performed. T5 becomes long, and subject tracking responsiveness decreases.

一実施の形態では、図10に示すように、追尾初期画像を取得するための電荷蓄積時間T0を、フリッカ周期Tとほぼ等しくするとともに、追尾比較画像を取得するための電荷蓄積時間T1よりも長くしたので、フリッカ光源下で被写界の輝度が変化してもフリッカ周期Tの全範囲に亘って電荷蓄積が行われ、フリッカ光源の影響のない追尾初期画像を安定に取得することができる。これにより、追尾対象の被写体像を正確に表すテンプレート画像を得ることができ、このようなテンプレート画像を用いて被写体追尾における高い精度と信頼性を実現することができる。その上さらに、追尾比較画像取得のための電荷蓄積時間T1は、追尾初期画像取得のための電荷蓄積時間T0より短い、必要最小限の長さとしたので、追尾比較画像を取得しながら被写体追尾制御を行う際の追尾サイクルT2(図10参照)が短くなり、被写体追尾の高い応答性を維持することができる。   In one embodiment, as shown in FIG. 10, the charge accumulation time T0 for obtaining the tracking initial image is made substantially equal to the flicker cycle T and is longer than the charge accumulation time T1 for obtaining the tracking comparison image. Since the length is increased, charge accumulation is performed over the entire range of the flicker period T even if the luminance of the object scene changes under the flicker light source, and a tracking initial image that is not affected by the flicker light source can be stably acquired. . Thus, a template image that accurately represents the subject image to be tracked can be obtained, and high accuracy and reliability in subject tracking can be realized using such a template image. Furthermore, since the charge accumulation time T1 for acquiring the tracking comparison image is set to the necessary minimum length that is shorter than the charge accumulation time T0 for acquiring the tracking initial image, subject tracking control is performed while acquiring the tracking comparison image. The tracking cycle T2 (see FIG. 10) when performing is shortened, and high responsiveness of subject tracking can be maintained.

なお、追尾初期画像取得時の電荷蓄積時間T0は、フリッカ周期Tとほぼ等しくすることが望ましいが、追尾初期画像取得時の被写体輝度に応じた第2撮像素子16のダイナミックレンジで許容できる最長時間に制限する必要がある。   Note that the charge accumulation time T0 at the time of initial tracking image acquisition is desirably substantially equal to the flicker cycle T, but the longest time allowable in the dynamic range of the second image sensor 16 according to the subject brightness at the time of initial tracking image acquisition. It is necessary to limit to.

ところで、被写体追尾制御により対象被写体を追尾しながら連続撮影(連写)を行うことがある。連写時はクイックリターンミラー5とサブミラー6が撮影のたびにアップ(撮影光路から退避状態)とダウン(撮影光路中にある状態)を繰り返し、アップ状態では被写体光がファインダー光学系へ導かれないため、追尾画像取得のための電荷蓄積時間が制約を受ける。   By the way, there are cases where continuous shooting (continuous shooting) is performed while tracking a target subject by subject tracking control. During continuous shooting, the quick return mirror 5 and the sub mirror 6 are repeatedly raised (withdrawn from the photographing optical path) and down (in the photographing optical path) each time an image is taken, and subject light is not guided to the viewfinder optical system in the up state. Therefore, the charge accumulation time for acquiring the tracking image is restricted.

図13は、従来の被写体追尾装置における連写時の追尾初期画像と追尾比較画像の取得タイミングを示すタイミングチャートである。フリッカ光源による影響を避けるために追尾初期画像と追尾比較画像を取得するための電荷蓄積時間を長くすると、ミラーアップのために追尾比較画像取得のための電荷蓄積を中断しなければならなくなり、中断時に複雑な中断処理を毎回行わなければならなくなる。   FIG. 13 is a timing chart showing the acquisition timing of the tracking initial image and tracking comparison image during continuous shooting in the conventional subject tracking device. In order to avoid the influence of the flicker light source, if the charge accumulation time for acquiring the tracking initial image and the tracking comparison image is lengthened, the charge accumulation for acquiring the tracking comparison image has to be interrupted for mirror up, and the interruption Sometimes complex interruptions must be performed each time.

これに対しこの一実施の形態では、追尾初期画像を取得するための電荷蓄積時間T0を、フリッカ周期Tとほぼ等しくするとともに、追尾比較画像を取得するための電荷蓄積時間T1よりも長くしたので、図14に示すように、ミラーアップのために追尾比較画像取得のための電荷蓄積を中断する必要がなく、中断時の複雑な中断処理が不要になる。つまり、この一実施の形態によれば、高速連写時においても、フリッカ光源の影響のない追尾初期画像を安定に取得することができ、追尾対象の被写体像を正確に表すテンプレート画像を生成して被写体追尾の高い精度と信頼性を実現できる上に、さらに追尾比較画像を取得しながら被写体追尾制御を行う際の追尾サイクルを短縮でき、被写体追尾の高い応答性を維持できる。   On the other hand, in this embodiment, the charge accumulation time T0 for obtaining the tracking initial image is made substantially equal to the flicker cycle T and longer than the charge accumulation time T1 for obtaining the tracking comparison image. As shown in FIG. 14, it is not necessary to interrupt the charge accumulation for acquiring the tracking comparison image for the mirror up, and a complicated interruption process at the time of interruption is not necessary. That is, according to this embodiment, it is possible to stably acquire a tracking initial image that is not affected by a flicker light source even during high-speed continuous shooting, and generate a template image that accurately represents the subject image to be tracked. In addition to realizing high accuracy and reliability of subject tracking, it is possible to shorten the tracking cycle when performing subject tracking control while acquiring a tracking comparison image, and maintain high responsiveness of subject tracking.

図8のステップ1に戻って一実施の形態の動作説明を続ける。ステップ1において取得した追尾初期画像を画素ごとにRGB値で表す。
R[x,y]、G[x,y]、B[x,y] ・・・(1)
このRGB値に基づいて各画素の色情報と輝度情報を算出する。この一実施の形態では、色情報として、色の偏り具合を示す値であるRG、BGを用いるとともに、輝度情報として、画像を取得したときの露光時間T、ゲインGain、色合成係数Kr、Kg、Kbにより算出したLを用いる。
RG[x,y]=Log(R[x,y])−Log(G[x,y]),
BG[x,y]=Log(B[x,y])−Log(G[x,y]),
L[x,y]=Log(Kr×R[x,y]+Kg×G[x,y]+Kb×B[x,y])−Log(T)−Log(Gain) ・・・(2)
Returning to step 1 of FIG. 8, the description of the operation of the embodiment will be continued. The initial tracking image acquired in step 1 is represented by RGB values for each pixel.
R [x, y], G [x, y], B [x, y] (1)
Based on the RGB values, color information and luminance information of each pixel are calculated. In this embodiment, RG and BG, which are values indicating the degree of color deviation, are used as color information, and exposure time T, gain Gain, and color composition coefficients Kr and Kg when an image is acquired are used as luminance information. , L calculated by Kb is used.
RG [x, y] = Log 2 (R [x, y]) − Log 2 (G [x, y]),
BG [x, y] = Log 2 (B [x, y]) - Log 2 (G [x, y]),
L [x, y] = Log 2 (Kr × R [x, y] + Kg × G [x, y] + Kb × B [x, y]) − Log 2 (T) −Log 2 (Gain) (2)

ここで、色の偏り具合を示す値であるRG、BGは、(2)式からも明らかなように、RGの値が大きければテンプレート画像は赤みが強く、BGの値が大きければ青みが強いことを示す。ここでは、緑色を基準にした赤色と青色への色の偏り具合いRG、BGを色情報とする例を示すが、基準色とその基準色と比較される色はこの一実施の形態の色に限定されない。なお、RG、BG以外の色を色情報として採用する場合には、図4に示す第2撮像素子16の画素26に用いるフィルターの色を、色情報として採用する色に合わせて変更する必要がある。   Here, as is apparent from the equation (2), RG and BG, which are values indicating the degree of color deviation, have a strong reddish image if the RG value is large, and a strong blue color if the BG value is large. It shows that. Here, an example is shown in which the color information of the color deviations RG and BG to red and blue based on green is used, but the reference color and the color to be compared with the reference color are the colors of this embodiment. It is not limited. When colors other than RG and BG are used as color information, it is necessary to change the color of the filter used for the pixel 26 of the second image sensor 16 shown in FIG. 4 according to the color used as the color information. is there.

続くステップ2では、図9に示す追尾制御初期処理を実行する。図9のステップ101において、第2撮像素子16で取得した追尾初期画像の中の焦点検出エリア45bの位置に対応する位置の画像を、被写体色情報(色情報および輝度情報)として記憶する。ステップ102では、図6(a)に示すように、追尾初期画像の中の焦点検出エリア45b(図5参照)の位置周辺部において被写体色情報と同様な色情報を示す同色情報領域を検出し、続くステップ103で同色情報領域を初期の追尾被写体領域47とする。   In the subsequent step 2, the tracking control initial process shown in FIG. 9 is executed. In step 101 of FIG. 9, an image at a position corresponding to the position of the focus detection area 45b in the tracking initial image acquired by the second image sensor 16 is stored as subject color information (color information and luminance information). In step 102, as shown in FIG. 6A, the same color information area showing the same color information as the subject color information is detected in the position peripheral portion of the focus detection area 45b (see FIG. 5) in the tracking initial image. In step 103, the same color information area is set as the initial tracking subject area 47.

なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処理の簡素化を図るために一律に3×3画素のように追尾被写体領域のサイズを統一したり、さらに撮影レンズ8の距離情報に応じて被写体領域のサイズを決定してもよい。   Here, an example in which the tracking subject area 47 is determined based on the subject color information is shown, but in order to simplify the processing, the size of the tracking subject area is uniformly set to 3 × 3 pixels, The size of the subject area may be determined according to the distance information of the photographing lens 8.

ステップ104において、追尾初期画像の中の追尾被写体領域47の画像を画像追尾処理に用いるテンプレート画像48(図6(b)参照)としてメモリ19dに記憶する。例えば、追尾被写体領域47の始点位置が図6(a)に示すように(x,y)=(4,5)の場合には、テンプレート画像48の色情報RGref、BGrefと輝度情報Lrefは次のように表される。なお、図6(a)では横軸をx、縦軸をyとし、図6(b)では横軸をrx、縦軸をryとする。
RGref[rx,ry]=RG[x,y]、
BGref[rx,ry]=BG[x,y]、
Lref[rx,ry]=L[x,y] (rx,ry=1〜3、x=4〜6、y=5〜7) ・・・(3)
In step 104, the image of the tracking subject area 47 in the tracking initial image is stored in the memory 19d as a template image 48 (see FIG. 6B) used for the image tracking process. For example, when the starting point position of the tracking subject region 47 is (x, y) = (4, 5) as shown in FIG. 6A, the color information RGref, BGref and luminance information Lref of the template image 48 are the following. It is expressed as In FIG. 6A, the horizontal axis is x, the vertical axis is y, and in FIG. 6B, the horizontal axis is rx and the vertical axis is ry.
RGref [rx, ry] = RG [x, y],
BGref [rx, ry] = BG [x, y],
Lref [rx, ry] = L [x, y] (rx, ry = 1 to 3, x = 4 to 6, y = 5 to 7) (3)

次に、ステップ105で追尾被写体領域47を中心に前後左右に所定画素(ここでは2画素とする)ずつ拡大した領域を探索領域49に設定する。図6(a)に示す例では、探索領域49は、x=2〜8、y=3〜9の領域になる。   Next, in step 105, an area enlarged by predetermined pixels (here, two pixels) around the tracking subject area 47 is set as the search area 49. In the example shown in FIG. 6A, the search area 49 is an area where x = 2 to 8 and y = 3 to 9.

追尾制御の初期処理が終了したら図8のステップ3へ進み、操作部材20のシャッターボタンが全押しされたか否か、つまりシャッターレリーズ操作が行われたか否かを確認する。シャッターレリーズ操作がない場合はステップ4へ進み、第2撮像素子16から追尾比較画像を取得し、ステップ1の処理と同様に色情報RG[x,y]、BG[x,y]および輝度情報L[x,y]を算出し、メモリ19dに記憶する。同時に、測距素子10により、各焦点検出エリア45a〜45gごとに焦点検出用の対の光像に応じた焦点検出信号を取得する。   When the initial processing of the tracking control is completed, the process proceeds to step 3 in FIG. 8 to check whether or not the shutter button of the operation member 20 has been fully pressed, that is, whether or not the shutter release operation has been performed. If there is no shutter release operation, the process proceeds to step 4 where a tracking comparison image is acquired from the second image sensor 16, and color information RG [x, y], BG [x, y] and luminance information are acquired in the same manner as in step 1. L [x, y] is calculated and stored in the memory 19d. At the same time, the focus detection signal corresponding to the pair of optical images for focus detection is acquired by the distance measuring element 10 for each of the focus detection areas 45a to 45g.

なお、図10に示すように、追尾比較画像を取得するための電荷蓄積時間T1は、追尾初期画像を取得するための電荷蓄積時間T0よりも短い、必要最小限の時間である。   As shown in FIG. 10, the charge accumulation time T1 for acquiring the tracking comparison image is a necessary minimum time shorter than the charge accumulation time T0 for acquiring the tracking initial image.

ステップ5において、追尾比較画像の中の探索領域49からテンプレート画像48と同じサイズの領域を順次切り出し、切り出した画像とテンプレート画像48の対応する画素ごとに色情報の差分Diffを算出する。図7(a)に太い破線で示すように、探索領域49の中で1画素ずつ領域をずらしながらテンプレート画像48との色情報の差分Diffを算出する。   In step 5, regions having the same size as the template image 48 are sequentially cut out from the search region 49 in the tracking comparison image, and a color information difference Diff is calculated for each corresponding pixel of the cut-out image and the template image 48. As shown by a thick broken line in FIG. 7A, a color information difference Diff from the template image 48 is calculated while shifting the region by one pixel in the search region 49.

今、図7(a)に示すように探索領域49の始点位置が(scx,scy)=(2,3)であるとすると、差分Diffの演算は次のようにして行う。
Diff[dx,dy]=ΣΣ{ABS(RG[scx+dx−1+rx,scy+dy−1+ry]−RGref[rx,ry])+ABS(BG[scx+dx−1+rx,scy+dy−1+ry]−BGref[rx,ry])+ABS(L[scx+dx−1+rx,scy+dy−1+ry]−Lref[rx,ry])} ・・・(4)
(4)式において、dx,dy=1〜5、rx,ry=1〜3、scx=2、scy=3、ΣΣはrx=1〜3およびry=1〜3の総和演算である。
Now, assuming that the starting point position of the search area 49 is (scx, scy) = (2, 3) as shown in FIG. 7A, the calculation of the difference Diff is performed as follows.
Diff [dx, dy] = ΣΣ {ABS (RG [scx + dx-1 + rx, scy + dy-1 + ry] −RGref [rx, ry]) + ABS (BG [scx + dx−1 + rx, scy + dy−1 + ry] −BGref [rx, ry]) + ABS (L [scx + dx-1 + rx, scy + dy-1 + ry] -Lref [rx, ry])} (4)
In the equation (4), dx, dy = 1 to 5, rx, ry = 1 to 3, scx = 2, scy = 3, and ΣΣ is a sum operation of rx = 1 to 3 and ry = 1 to 3.

次に、(4)式により算出したすべての差分Diffの内、値が最小の差分を最小差分MinDiffとする。図7(a)に示す例では、最小差分MinDiffとなる位置(minx,miny)は探索領域49内の(4,4)である。この最小差分MinDiffの値が小さいほど、テンプレート画像48との類似性が高いことになる。   Next, among all the differences Diff calculated by the equation (4), the difference having the smallest value is set as the minimum difference MinDiff. In the example shown in FIG. 7A, the position (minx, miny) that is the minimum difference MinDiff is (4, 4) in the search area 49. The smaller the value of the minimum difference MinDiff, the higher the similarity to the template image 48.

ステップ6において、ステップ5で求めた最小差分MinDiffを類似判定しきい値Dthと比較する。最小差分MinDiffが類似判定しきい値Dthより大きい場合は、最小差分値MinDiffが求められた領域の画像はテンプレート画像48と類似していないと判断し、ステップ10へ進む。一方、最小差分値MinDiffが類似判定しきい値Dth以下の場合は、最小差分値MinDiffが求められた領域の画像はテンプレート画像48と類似していると判断し、ステップ7へ進む。   In step 6, the minimum difference MinDiff obtained in step 5 is compared with the similarity determination threshold value Dth. If the minimum difference MinDiff is larger than the similarity determination threshold value Dth, it is determined that the image of the area for which the minimum difference value MinDiff has been obtained is not similar to the template image 48, and the process proceeds to step 10. On the other hand, if the minimum difference value MinDiff is equal to or smaller than the similarity determination threshold value Dth, it is determined that the image of the area for which the minimum difference value MinDiff is obtained is similar to the template image 48, and the process proceeds to step 7.

ステップ7では、最小差分値MinDiffが求められた領域を新しい追尾被写体領域47に決定する。図7(b)に示す例では、始点位置が(x,y)=(5,6)の破線枠で示す領域を新追尾被写体領域47とする。続くステップ8において、新追尾被写体領域47の画像情報を用いてテンプレート画像を更新する。この一実施の形態では、例えば次式に示すように、現在のテンプレート画像48の画像情報8割に対し、新追尾被写体領域47の画像情報2割を加算し、新しいテンプレート画像48の色情報RGref、BGrefと輝度情報Lrefを生成してメモリ19dに記憶し直す。
RGref[rx,ry]=0.8・RGref[rx,ry]+0.2・RG[x,y],
BGref[rx,ry]=0.8・BGref[rx,ry]+0.2・BG[x,y],
Lref[rx,ry]=0.8・Lref[rx,ry]+0.2・L[x,y],
(rx,ry=1〜3、x=5〜7、y=6〜8) ・・・(5)
In step 7, the area for which the minimum difference value MinDiff has been obtained is determined as a new tracking subject area 47. In the example shown in FIG. 7B, an area indicated by a broken line frame whose starting point position is (x, y) = (5, 6) is a new tracking subject area 47. In the following step 8, the template image is updated using the image information of the new tracking subject area 47. In this embodiment, for example, as shown in the following equation, 20% of the image information of the new tracking subject region 47 is added to 80% of the image information of the current template image 48, and the color information RGref of the new template image 48 is added. BGref and luminance information Lref are generated and stored again in the memory 19d.
RGref [rx, ry] = 0.8 · RGref [rx, ry] + 0.2 · RG [x, y],
BGref [rx, ry] = 0.8 · BGref [rx, ry] + 0.2 · BG [x, y],
Lref [rx, ry] = 0.8 · Lref [rx, ry] + 0.2 · L [x, y],
(Rx, ry = 1-3, x = 5-7, y = 6-8) (5)

なお、テンプレート画像48を更新する際の今までのテンプレート画像における画像情報と新追尾被写体領域47の画像情報との割合は、上述した固定値としてもよいし、最小差分MinDiffに応じて可変にしてもよい。   Note that the ratio of the image information in the template image so far and the image information of the new tracking subject area 47 when the template image 48 is updated may be a fixed value as described above, or may be variable according to the minimum difference MinDiff. Also good.

ステップ9において、新しい追尾被写体領域47を中心に前後左右に所定画素(ここでは2画素とする)づつ拡大した領域を新しい探索領域49に設定する。ここでは、図7(b)に示すように、x=3〜9、y=4〜10の領域を新しい探索領域49とする。   In step 9, an area enlarged by predetermined pixels (here, two pixels) around the new tracking subject area 47 is set as a new search area 49. Here, as shown in FIG. 7B, an area of x = 3 to 9 and y = 4 to 10 is set as a new search area 49.

続くステップ10では、図5に示す焦点検出エリア45a〜45gの内、新追尾被写体領域47内にある焦点検出エリア、もしくは新追尾被写体領域47の近傍にある焦点検出エリアにおいて、ステップ4で取得した焦点検出信号に基づいて周知の焦点検出演算を行い、その焦点検出エリアのデフォーカス量を算出する。そして、新追尾被写体領域47内または近傍の焦点検出エリアで検出されたデフォーカス量をレンズ駆動量に変換し、レンズ駆動制御装置22によりフォーカシングレンズ8bを駆動して焦点調節を行う。その後、ステップ3へ戻って上述した処理を繰り返す。   In the subsequent step 10, the focus detection areas 45 a to 45 g shown in FIG. 5 acquired in step 4 in the focus detection area in the new tracking subject area 47 or in the vicinity of the new tracking subject area 47. A known focus detection calculation is performed based on the focus detection signal, and the defocus amount of the focus detection area is calculated. Then, a defocus amount detected in the focus detection area in or near the new tracking subject region 47 is converted into a lens drive amount, and the lens driving control device 22 drives the focusing lens 8b to perform focus adjustment. Then, it returns to step 3 and repeats the process mentioned above.

焦点調節後のステップ3でレリーズボタンの全押しを確認する。シャッターボタンが半押しされている間、ステップ4〜10の処理を繰り返し実行し、シャッターボタンが全押しされるとステップ11へ進み、撮影処理を実行する。なお、撮像処理に際しては、ステップ7で決定した新追尾被写体領域47の輝度情報に基づいて露出演算を行い、絞り値とシャッター速度を算出する。これらの露出値にしたがってシャッター7および絞り21を駆動制御し、第1撮像素子4により撮像を行う。   Confirm that the release button is fully pressed in step 3 after adjusting the focus. While the shutter button is half-pressed, the processes of steps 4 to 10 are repeatedly executed. When the shutter button is fully pressed, the process proceeds to step 11 to execute a photographing process. In the imaging process, an exposure calculation is performed based on the luminance information of the new tracking subject area 47 determined in step 7, and an aperture value and a shutter speed are calculated. The shutter 7 and the aperture 21 are driven and controlled in accordance with these exposure values, and the first image sensor 4 captures an image.

なお、上述した一実施の形態では、本願発明の被写体追尾装置を一眼レフデジタルカメラに搭載した例を示したが、本願発明の被写体追尾装置は一眼レフデジタルカメラに限定されず、例えばコンパクトデジタルカメラなどにも搭載することができる。   In the above-described embodiment, an example in which the subject tracking device of the present invention is mounted on a single-lens reflex digital camera has been described. However, the subject tracking device of the present invention is not limited to a single-lens reflex digital camera, for example, a compact digital camera It can also be installed.

また、上述した一実施の形態では、本来測光用に設けた第2撮像素子16を被写体追尾制御用に兼用する例を示したが、撮像用の第1撮像素子4を被写体追尾制御用としてもよい。   In the above-described embodiment, the example in which the second image sensor 16 originally provided for photometry is also used for subject tracking control has been described. However, the first image sensor 4 for imaging may also be used for subject tracking control. Good.

なお、上述した実施の形態とそれらの変形例において、実施の形態と変形例とのあらゆる組み合わせが可能である。   In the above-described embodiments and their modifications, all combinations of the embodiments and the modifications are possible.

1;カメラ、8;撮影レンズ、16;第2撮像素子、19;ボディ駆動制御装置、19a;素子制御回路、19e;追尾制御部 DESCRIPTION OF SYMBOLS 1; Camera, 8; Shooting lens, 16; 2nd image pick-up element, 19; Body drive control apparatus, 19a; Element control circuit, 19e;

Claims (5)

結像光学系により結像された画像を繰り返し撮像する撮像手段と、
前記撮像手段により撮像された第1画像から追尾対象被写体の基準画像を設定する基準設定手段と、
前記撮像手段により前記第1画像以後に撮像された第2画像において前記基準画像に類似する部分画像の位置を探索する位置探索手段とを備え、
撮影画面内を移動する追尾対象被写体を追尾する被写体追尾装置において、
前記撮像手段の露光時間を制御する露光制御手段を備え、
前記露光制御手段は、前記第1画像を撮像するときは前記第2画像を撮像するときよりも長い露光時間を設定することを特徴とする被写体追尾装置。
Imaging means for repeatedly imaging an image formed by the imaging optical system;
Reference setting means for setting a reference image of the tracking target subject from the first image picked up by the image pickup means;
Position search means for searching for a position of a partial image similar to the reference image in a second image taken after the first image by the imaging means;
In a subject tracking device that tracks a subject to be tracked that moves within the shooting screen,
Exposure control means for controlling the exposure time of the imaging means;
The subject tracking device, wherein the exposure control means sets a longer exposure time when capturing the first image than when capturing the second image.
請求項1に記載の被写体追尾装置において、
前記露光制御手段は、前記第1画像を撮像するときに光源のフリッカ周期とほぼ等しい露光時間を設定することを特徴とする被写体追尾装置。
The subject tracking device according to claim 1,
The subject tracking device, wherein the exposure control means sets an exposure time substantially equal to a flicker cycle of a light source when taking the first image.
請求項1または請求項2に記載の被写体追尾装置において、
前記露光制御手段は、前記第1画像を撮像するときに、前記撮像素子の被写体輝度に応じたダイナミックレンジで許容できる最長時間に設定することを特徴とする被写体追尾装置。
In the subject tracking device according to claim 1 or 2,
The subject tracking device, wherein when the first image is captured, the exposure control means sets the longest time allowable in a dynamic range according to the subject brightness of the image sensor.
請求項1〜3のいずれか一項に記載の被写体追尾装置において、
撮像時の光源がフリッカ光源か否かを判定する光源判定手段を備え、
前記露光制御手段は、前記光源判定手段によりフリッカ光源と判定されたときに、前記第1画像を撮像するための露光時間を前記第2画像を撮像するための露光時間よりも長くすることを特徴とする被写体追尾装置。
In the subject tracking device according to any one of claims 1 to 3,
Light source determination means for determining whether the light source at the time of imaging is a flicker light source,
The exposure control means makes the exposure time for capturing the first image longer than the exposure time for capturing the second image when the light source determination means determines that the light source is a flicker light source. A subject tracking device.
請求項1〜3のいずれか一項にに記載の被写体追尾装置において、
前記露光制御手段は、ホワイトバランス設定でフリッカ光源が選択されたときに、前記第1画像を撮像するための露光時間を前記第2画像を撮像するための露光時間よりも長くすることを特徴とする被写体追尾装置。
In the subject tracking device according to any one of claims 1 to 3,
The exposure control means is characterized in that when a flicker light source is selected in a white balance setting, an exposure time for capturing the first image is longer than an exposure time for capturing the second image. Subject tracking device.
JP2009044306A 2009-02-26 2009-02-26 Photographic subject tracking device Pending JP2010200138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009044306A JP2010200138A (en) 2009-02-26 2009-02-26 Photographic subject tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009044306A JP2010200138A (en) 2009-02-26 2009-02-26 Photographic subject tracking device

Publications (1)

Publication Number Publication Date
JP2010200138A true JP2010200138A (en) 2010-09-09

Family

ID=42824362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009044306A Pending JP2010200138A (en) 2009-02-26 2009-02-26 Photographic subject tracking device

Country Status (1)

Country Link
JP (1) JP2010200138A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102025920A (en) * 2010-11-17 2011-04-20 无锡中星微电子有限公司 Exposure time regulation method and device as well as camera using exposure time regulation device
JP2012169921A (en) * 2011-02-15 2012-09-06 Canon Inc Imaging apparatus and control method
JP2012169920A (en) * 2011-02-15 2012-09-06 Canon Inc Imaging apparatus and control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102025920A (en) * 2010-11-17 2011-04-20 无锡中星微电子有限公司 Exposure time regulation method and device as well as camera using exposure time regulation device
JP2012169921A (en) * 2011-02-15 2012-09-06 Canon Inc Imaging apparatus and control method
JP2012169920A (en) * 2011-02-15 2012-09-06 Canon Inc Imaging apparatus and control method

Similar Documents

Publication Publication Date Title
JP5176483B2 (en) Image recognition device, image tracking device, and imaging device
US9639754B2 (en) Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5082631B2 (en) Imaging device
JP5157256B2 (en) Image tracking device and imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP5056136B2 (en) Image tracking device
JP5403111B2 (en) Image tracking device
JP2013254166A (en) Imaging device and control method of the same
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP2010200138A (en) Photographic subject tracking device
JP4985155B2 (en) Focus adjustment device and imaging device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5541396B2 (en) Image tracking device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP5176845B2 (en) Image tracking device and imaging device
JP2010054586A (en) Focusing device and imaging apparatus
JP4773769B2 (en) Focus detection device
JP2012093775A (en) Focus detector and imaging apparatus
JP5347834B2 (en) Image tracking device
JP4973369B2 (en) Image processing apparatus and imaging apparatus
JP5772933B2 (en) Imaging device
JP2012221289A (en) Image tracking device
JP2012199601A (en) Image tracking device