JP5070856B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5070856B2
JP5070856B2 JP2007017528A JP2007017528A JP5070856B2 JP 5070856 B2 JP5070856 B2 JP 5070856B2 JP 2007017528 A JP2007017528 A JP 2007017528A JP 2007017528 A JP2007017528 A JP 2007017528A JP 5070856 B2 JP5070856 B2 JP 5070856B2
Authority
JP
Japan
Prior art keywords
image
focus detection
unit
reference image
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007017528A
Other languages
Japanese (ja)
Other versions
JP2008187332A (en
Inventor
宏 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007017528A priority Critical patent/JP5070856B2/en
Publication of JP2008187332A publication Critical patent/JP2008187332A/en
Application granted granted Critical
Publication of JP5070856B2 publication Critical patent/JP5070856B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P10/00Technologies related to metal processing
    • Y02P10/20Recycling

Description

本発明は画像追尾装置と撮像装置に関する。   The present invention relates to an image tracking device and an imaging device.

撮影した画像内において追尾対象の被写体を囲む枠(追尾枠)を設定し、追尾枠内の画像データをテンプレート(基準画像)として記憶するとともに、繰り返し撮影される画像の中からテンプレートと類似度の高い領域を検索し(テンプレートマッチング)、その領域へ追尾枠を移動するとともに、新しい追尾枠内の画像データでテンプレートを更新し、被写体を追尾するようにした撮像装置が知られている(例えば、特許文献1参照)。   A frame (tracking frame) that surrounds the subject to be tracked is set in the captured image, and the image data in the tracking frame is stored as a template (reference image). An imaging device is known that searches for a high area (template matching), moves a tracking frame to that area, updates the template with image data in the new tracking frame, and tracks the subject (for example, Patent Document 1).

この出願の発明に関連する先行技術文献としては次のものがある。
特開2006−058431号公報
Prior art documents related to the invention of this application include the following.
JP 2006-058431 A

しかしながら、上述した従来の撮像装置では、テンプレートマッチング途中で追尾対象でない被写体を誤って捕捉することがあり、その場合でも追尾対象でない被写体の画像データによりテンプレートが更新されてしまうという問題がある。   However, the above-described conventional imaging apparatus sometimes erroneously captures a subject that is not a tracking target in the middle of template matching, and even in that case, there is a problem that the template is updated with image data of the subject that is not the tracking target.

(1)請求項1に記載の撮像装置は、光学系によって得られる第1画像及び前記第1画像の後に得られる第2画像を撮像する撮像部と、前記第1画像のうち追尾対象に対応する部分の画像を第1基準画像として記憶する記憶部と、前記第2画像のうち、前記第1基準画像に対応する部分の画像を第2基準画像として認識する認識部と、前記光学系による画面内の複数の焦点検出エリアについて前記光学系の焦点調節状態を繰り返し検出する焦点検出部と、前記複数の焦点検出エリアから前記追尾対象に対応する部分に最も近い焦点検出エリアを選択する選択部と、前記第1画像の前記選択部により選択された前記焦点検出エリアの焦点調節状態と、前記第2画像の前記第2基準画像の位置に最も近い前記焦点検出エリアの焦点調節状態との差の絶対値を演算する演算部と、前記演算部により演算された前記差の絶対値が判定閾値よりも小さいとき、前記記憶部に前記第2基準画像を前記第1基準画像として記憶させるように制御し、前記差の絶対値が前記判定閾値よりも小さくないとき、前記記憶部に前記第2基準画像を記憶させないように制御する制御部とを含むことを特徴とする。
(2)請求項2に記載の撮像装置は、請求項1に記載の撮像装置であって、前記制御部が前記記憶部に前記第2基準画像を記憶させるように制御した場合には、前記第2画像の前記第2基準画像の位置に最も近い前記焦点検出エリアの焦点調節状態に基づいて撮影レンズの駆動制御を行う駆動制御部を備えたことを特徴とする。
(3)請求項3に記載の撮像装置は、光学系によって得られる第1画像及び前記第1画像の後に得られる第2画像を撮像する撮像部と、前記第1画像のうち追尾対象に対応する部分の画像を第1基準画像として記憶する記憶部と、前記第2画像のうち、前記第1基準画像に対応する部分の画像を第2基準画像として認識する認識部と、前記光学系による画面内の複数の焦点検出エリアについて前記光学系の焦点調節状態を繰り返し検出する焦点検出部と、前記複数の焦点検出エリアから前記追尾対象に対応する部分に最も近い焦点検出エリアを選択する選択部と、前記第2画像の前記複数の焦点検出エリアの焦点調節状態うち、前記第1画像の前記選択部により選択された前記焦点検出エリアの焦点調節状態との差の絶対値が所定値以下となる焦点調節状態が得られる焦点検出エリアを特定する特定部と、前記特定部により特定された前記焦点検出エリアの位置と、前記第2基準画像の位置との間隔が判定閾値よりも小さいとき、前記記憶部に前記第2基準画像を前記第1基準画像として記憶させるように制御し、前記間隔が前記判定閾値よりも小さくないとき、前記記憶部に前記第2基準画像を記憶させないように制御する制御部とを含むことを特徴とする。
(4)請求項4に記載の撮像装置は、請求項3に記載の撮像装置であって、前記制御部が前記記憶部に前記第2基準画像を記憶させるように制御した場合には、前記特定部により特定された前記焦点検出エリアの焦点調節状態に基づいて撮影レンズの駆動制御を行う駆動制御部とを備えたことを特徴とする。
(5)請求項5に記載の撮像装置は、光学系によって得られる第1画像及び前記第1画像の後に得られる第2画像を撮像する撮像部と、前記第1画像のうち追尾対象に対応する部分の画像を第1基準画像として記憶する記憶部と、前記光学系による画面内の複数の焦点検出エリアについて前記光学系の焦点調節状態を繰り返し検出する焦点検出部と、前記複数の焦点検出エリアから前記追尾対象に対応する部分に最も近い焦点検出エリアを選択する選択部と、前記第2画像の前記複数の焦点検出エリアの焦点調節状態うち、前記第1画像の前記選択部により選択された前記焦点検出エリアの焦点調節状態との差の絶対値が所定値以下となる焦点調節状態が得られる焦点検出エリアを特定する特定部と、前記第2画像のうち、前記特定部により特定された前記焦点検出エリアの位置に対応する部分の画像を第2基準画像として認識する認識部と、前記第1基準画像と前記第2基準画像とが判定
閾値よりも類似しているとき、前記記憶部に前記第2基準画像を前記第1基準画像として記憶させるように制御し、前記第1基準画像と前記第2基準画像とが判定閾値よりも類似していないとき、前記記憶部に前記第2基準画像を記憶させないように制御する制御部とを含むことを特徴とする。
(6)請求項6に記載の撮像装置は、請求項5に記載の撮像装置であって、前記制御部が前記記憶部に前記第2基準画像を記憶させるように制御した場合には、前記特定部により特定された前記焦点検出エリアの焦点調節状態に基づいて撮影レンズの駆動制御を行う駆動制御部とを備えたことを特徴とする。
(7)請求項7に記載の撮像装置は、請求項1〜6のいずれか1項に記載の撮像装置において、前記焦点検出部は、位相差検出方式によって焦点検出を行うことを特徴とする。
(1) An imaging apparatus according to claim 1 corresponds to a tracking target in the first image and an imaging unit that captures a first image obtained by an optical system and a second image obtained after the first image. A storage unit that stores an image of a portion to be processed as a first reference image, a recognition unit that recognizes an image of a portion corresponding to the first reference image in the second image as a second reference image, and the optical system. A focus detection unit that repeatedly detects the focus adjustment state of the optical system for a plurality of focus detection areas in the screen, and a selection unit that selects a focus detection area closest to a portion corresponding to the tracking target from the plurality of focus detection areas And the focus adjustment state of the focus detection area selected by the selection unit of the first image and the focus adjustment state of the focus detection area closest to the position of the second reference image of the second image A calculator for calculating an absolute value, when the absolute value of the difference calculated by the calculation unit is smaller than the determination threshold value, controlling the second reference image in the storage unit so as to be stored as the first reference image And a control unit that controls the storage unit not to store the second reference image when the absolute value of the difference is not smaller than the determination threshold.
(2) The imaging device according to claim 2 is the imaging device according to claim 1, wherein the control unit controls the storage unit to store the second reference image. A drive control unit that performs drive control of the photographing lens based on a focus adjustment state of the focus detection area that is closest to the position of the second reference image of the second image is provided.
(3) An imaging apparatus according to claim 3 corresponds to a tracking target in the first image and an imaging unit that captures a first image obtained by an optical system and a second image obtained after the first image. A storage unit that stores an image of a portion to be processed as a first reference image, a recognition unit that recognizes an image of a portion corresponding to the first reference image in the second image as a second reference image, and the optical system. A focus detection unit that repeatedly detects the focus adjustment state of the optical system for a plurality of focus detection areas in the screen, and a selection unit that selects a focus detection area closest to a portion corresponding to the tracking target from the plurality of focus detection areas And an absolute value of a difference between a focus adjustment state of the plurality of focus detection areas of the second image and a focus adjustment state of the focus detection area selected by the selection unit of the first image is equal to or less than a predetermined value. Na When a distance between a specifying unit that specifies a focus detection area in which a focus adjustment state is obtained, a position of the focus detection area specified by the specifying unit, and a position of the second reference image is smaller than a determination threshold, Control is performed to store the second reference image as the first reference image in the storage unit, and control is performed so that the second reference image is not stored in the storage unit when the interval is not smaller than the determination threshold. And a control unit.
(4) The imaging device according to claim 4 is the imaging device according to claim 3, wherein the control unit controls the storage unit to store the second reference image. And a drive control unit that performs drive control of the photographing lens based on a focus adjustment state of the focus detection area specified by the specifying unit.
(5) An imaging apparatus according to claim 5 corresponds to an imaging unit that captures a first image obtained by an optical system and a second image obtained after the first image, and corresponds to a tracking target in the first image. A storage unit that stores an image of a portion to be processed as a first reference image, a focus detection unit that repeatedly detects a focus adjustment state of the optical system for a plurality of focus detection areas in a screen by the optical system, and the plurality of focus detections A selection unit that selects a focus detection area that is closest to the portion corresponding to the tracking target from the area, and a focus adjustment state of the plurality of focus detection areas of the second image that is selected by the selection unit of the first image. A specifying unit that specifies a focus detection area in which a focus adjustment state in which an absolute value of a difference from the focus adjustment state of the focus detection area is equal to or less than a predetermined value is obtained; and When the recognition unit that recognizes the image of the portion corresponding to the position of the determined focus detection area as the second reference image, and the first reference image and the second reference image are more similar than the determination threshold value, The storage unit is controlled to store the second reference image as the first reference image, and when the first reference image and the second reference image are not similar to a determination threshold, the storage unit And a control unit that controls not to store the second reference image.
(6) The image pickup apparatus according to claim 6 is the image pickup apparatus according to claim 5, wherein the control unit controls the storage unit to store the second reference image. And a drive control unit that performs drive control of the photographing lens based on a focus adjustment state of the focus detection area specified by the specifying unit.
(7) The imaging device according to claim 7 is the imaging device according to any one of claims 1 to 6, wherein the focus detection unit performs focus detection by a phase difference detection method. .

本発明によれば、光学系による像のうちの追尾対象とする部分の画像を基準画像として記憶し、光学系により繰り返し得られる画像の中から基準画像に基づいて追尾対象の位置を認識する画像追尾において、光学系により繰り返し得られる画像の中から追尾対象とする部分の画像を正確に抽出して基準画像の更新を図り、画像追尾性能を向上させることができる。   According to the present invention, an image of a portion to be tracked of an image by an optical system is stored as a reference image, and an image for recognizing the position of the tracking target based on the reference image from images repeatedly obtained by the optical system In tracking, it is possible to accurately extract an image of a portion to be tracked from images repeatedly obtained by the optical system, update the reference image, and improve the image tracking performance.

本発明の一実施の形態として一眼レフレックス・ディジタルカメラを例に上げて説明する。なお、本発明の撮像装置は一眼レフレックス・ディジタルカメラに限定されず、コンパクトディジタルカメラや一眼レフレックス・フィルムカメラなどにも搭載することができる。   As an embodiment of the present invention, a single lens reflex digital camera will be described as an example. Note that the imaging apparatus of the present invention is not limited to a single-lens reflex digital camera, but can be mounted on a compact digital camera, a single-lens reflex film camera, or the like.

図1は一実施の形態の一眼レフレックス・ディジタルカメラの電気回路を示すブロック図、図2は一実施の形態の一眼レフレックス・ディジタルカメラの機構を示す横断面図である。図1および図2において、本発明に直接関係のないカメラの機器および回路については図示と説明を省略する。図1、図2により、一実施の形態の一眼レフレックス・ディジタルカメラの構成を説明する。   FIG. 1 is a block diagram showing an electric circuit of a single-lens reflex digital camera of one embodiment, and FIG. 2 is a cross-sectional view showing a mechanism of the single-lens reflex digital camera of one embodiment. In FIG. 1 and FIG. 2, illustration and description of camera devices and circuits not directly related to the present invention are omitted. The configuration of a single-lens reflex digital camera according to an embodiment will be described with reference to FIGS.

測光素子1は、被写体輝度を検出するための測光センサーであるとともに、被写体追尾を行うためにの画像解析用の被写体像を撮像する撮像センサーであり、図3(a)に示すように撮影画面を正方格子状に分割して各分割測光エリアごとに測光を行う。この一実施の形態では測光素子1を測光用と被写体追尾用に兼用する例を示すが、被写体追尾専用の撮像素子を別個に設けてもよい。測光素子1はCCDやCMOSなどから構成され、図3(a)に示すように分割測光エリアごとに画素が配列されている。すなわち、複数の画素がX方向に8個、Y方向に6個の二次元正方格子状に配列されている。さらに、各画素はB、G、Rの三原色フィルターを備えた画素に分割されている。測光回路2は、測光素子1から出力された測光信号に対しノイズ除去、感度補正、A/D変換などの信号処理を施し、画素ごとのBGR輝度信号を出力する。   The photometric element 1 is a photometric sensor for detecting subject luminance, and is an imaging sensor for capturing a subject image for image analysis for subject tracking. As shown in FIG. Is divided into a square lattice, and photometry is performed for each divided photometry area. In this embodiment, an example is shown in which the photometric element 1 is used both for photometry and for subject tracking, but an imaging element dedicated to subject tracking may be provided separately. The photometric element 1 is composed of a CCD, a CMOS or the like, and pixels are arranged for each divided photometric area as shown in FIG. That is, a plurality of pixels are arranged in a two-dimensional square lattice shape with eight in the X direction and six in the Y direction. Further, each pixel is divided into pixels having B, G, and R three primary color filters. The photometric circuit 2 performs signal processing such as noise removal, sensitivity correction, and A / D conversion on the photometric signal output from the photometric element 1, and outputs a BGR luminance signal for each pixel.

焦点検出素子3は図2に示すAFモジュール21に内蔵され、図3(a)に“+”印で示す被写界の11カ所に設定された焦点検出エリアにおいて、撮影レンズ22の射出瞳面の一対の領域を通過した一対の光束によって結像される一対の被写体像のズレ量を検出し、各焦点検出エリアごとの焦点検出信号を出力する。なお、図3(a)は測光素子1の分割測光エリアと焦点検出素子3の焦点検出エリアとの対応関係を示しており、11カ所の焦点検出エリアは8×6個の分割測光エリアの範囲内に設定されている。焦点検出回路4は、焦点検出素子3から出力される各焦点検出エリアごとの焦点検出信号に基づいて、位相差検出方式により各焦点検出エリアごとのデフォーカス量を検出する。   The focus detection element 3 is built in the AF module 21 shown in FIG. 2, and the exit pupil plane of the photographing lens 22 is set in 11 focus detection areas set in the field indicated by “+” in FIG. A shift amount of a pair of subject images formed by a pair of light beams that have passed through the pair of regions is detected, and a focus detection signal for each focus detection area is output. FIG. 3A shows the correspondence between the divided photometry area of the photometry element 1 and the focus detection area of the focus detection element 3. The eleven focus detection areas are the range of 8 × 6 divided photometry areas. Is set in. The focus detection circuit 4 detects the defocus amount for each focus detection area by the phase difference detection method based on the focus detection signal for each focus detection area output from the focus detection element 3.

撮像素子5はCCDやCMOSから構成され、撮影レンズ22により結像される被写体像を撮像して撮像信号を出力する。信号処理回路6は、撮像素子5から出力された撮像信号に対しサンプリング、ノイズ除去、感度補正、A/D変換などの処理を施す。バッファー7は画像データやデフォーカス量などを一時的に記憶するメモリである。画像処理回路8は、信号処理回路6による処理後の画像データに対し画素補間、解像度変換、ホワイトバランス制御、ガンマ補正、マトリクス演算、画像圧縮などの処理を施す。メモリカード9は撮像画像を記録する記録媒体である。   The image pickup device 5 is composed of a CCD or a CMOS, picks up a subject image formed by the taking lens 22 and outputs an image pickup signal. The signal processing circuit 6 performs processing such as sampling, noise removal, sensitivity correction, and A / D conversion on the imaging signal output from the imaging device 5. The buffer 7 is a memory that temporarily stores image data, a defocus amount, and the like. The image processing circuit 8 performs processing such as pixel interpolation, resolution conversion, white balance control, gamma correction, matrix calculation, and image compression on the image data processed by the signal processing circuit 6. The memory card 9 is a recording medium that records captured images.

レンズ駆動回路10は焦点検出結果にしたがって撮影レンズ22のフォーカシングレンズ(不図示)を駆動し、撮影レンズ22の焦点調節を行う。絞り駆動回路11は露出演算結果にしたがって絞り23を駆動し、絞りを調節する。シャッター駆動回路12は露出演算結果にしたがってシャッター24を駆動し、撮像素子5を露光する。ミラー駆動回路13はメインミラー25およびサブミラー26を駆動し、ミラー25,26の上昇と下降を行う。表示駆動回路14は、ファインダー光学系のスクリーン27(図2参照)の上に設けられる拡散型液晶表示器(以下、ファインダー表示器という)15を制御し、スクリーン27の被写体像に追尾対象領域(追尾枠ともいう)や焦点検出エリアを重畳して表示する。   The lens driving circuit 10 drives a focusing lens (not shown) of the photographic lens 22 according to the focus detection result, and adjusts the focus of the photographic lens 22. The aperture drive circuit 11 drives the aperture 23 according to the exposure calculation result to adjust the aperture. The shutter drive circuit 12 drives the shutter 24 according to the exposure calculation result to expose the image sensor 5. The mirror drive circuit 13 drives the main mirror 25 and the sub mirror 26 to raise and lower the mirrors 25 and 26. The display drive circuit 14 controls a diffusion type liquid crystal display (hereinafter referred to as a finder display) 15 provided on a screen 27 (see FIG. 2) of the finder optical system, and a tracking target region (referred to as a subject image on the screen 27). (Also called a tracking frame) and a focus detection area are superimposed and displayed.

操作スイッチ類16は、カメラを操作するための各種操作部材の操作にともなってオンまたはオフするスイッチ類である。この操作スイッチ類16には、シャッターボタンの半押し操作でオンするレリーズ半押しスイッチ、シャッターボタンの全押し操作でオンするレリーズ全押しスイッチ、追尾撮影モードなどの撮影モードを選択するためのモードセレクター、焦点検出エリアを選択するための方向キーなどが含まれる。   The operation switches 16 are switches that are turned on or off in accordance with the operation of various operation members for operating the camera. The operation switches 16 include a mode selector for selecting a shooting mode such as a release half-press switch that is turned on when the shutter button is half-pressed, a release full-press switch that is turned on when the shutter button is fully pressed, and a tracking shooting mode. , Direction keys for selecting a focus detection area, and the like are included.

制御回路17はCPU17aとメモリ17bなどの周辺部品を備え、バス18を介して上述したカメラの各回路および機器と接続され、カメラの各種の制御と演算を行う。また、制御回路17は、マイクロコンピューターのソフトウエア形態により被写体追尾機能、類似度算出機能、距離算出機能などを有する。これらの機能については詳細を後述する。   The control circuit 17 includes peripheral components such as a CPU 17a and a memory 17b, and is connected to the above-described camera circuits and devices via the bus 18 to perform various controls and operations of the camera. The control circuit 17 has a subject tracking function, a similarity calculation function, a distance calculation function, and the like depending on the software form of the microcomputer. Details of these functions will be described later.

図2において、非撮影時にはメインミラー25とサブミラー26が撮影レンズ22の光路中に置かれる。この状態で、撮影レンズ22を透過した被写体光束の一部はメインミラー25で反射され、拡散スクリーン27に導かれて被写体像(以下、ファインダー像という)を結像する。このファインダー像はコンデンサーレンズ28、ペンタプリズム29、ビームスプリッター30、接眼レンズ31を介して撮影者の目へ導かれるとともに、ビームスプリッター30で一部が上方へ分割され、回折格子32、測光レンズ33を介して測光素子1へ導かれる。なお、ビームスプリッター30、回折格子32および測光レンズ33から構成される測光光学系の構成はこの一実施の形態の構成に限定されない。   In FIG. 2, the main mirror 25 and the sub mirror 26 are placed in the optical path of the photographing lens 22 when not photographing. In this state, a part of the subject luminous flux transmitted through the photographing lens 22 is reflected by the main mirror 25 and guided to the diffusion screen 27 to form a subject image (hereinafter referred to as a finder image). This viewfinder image is guided to the photographer's eyes through a condenser lens 28, a pentaprism 29, a beam splitter 30, and an eyepiece lens 31, and a part of the viewfinder image is divided upward by the beam splitter 30 to form a diffraction grating 32 and a photometric lens 33. To the photometric element 1 via The configuration of the photometric optical system including the beam splitter 30, the diffraction grating 32, and the photometric lens 33 is not limited to the configuration of this embodiment.

回折格子32は光の回折現象を利用して光束を波長ごとに分光する。回折格子32により被写体の1点から出た光を測光素子1上に分光して入射させることによって、図3(a)に示す測光素子1の各RGB画素上にそれぞれの波長の光が入射する。これにより、偽色補正を行うことができ、追尾対象の被写体の色情報に基づいて被写体を追尾する場合に正しい色情報を検出することができる。   The diffraction grating 32 uses the light diffraction phenomenon to split the light flux for each wavelength. The light emitted from one point of the subject by the diffraction grating 32 is spectroscopically incident on the photometric element 1 so that light of each wavelength is incident on each RGB pixel of the photometric element 1 shown in FIG. . Thereby, false color correction can be performed, and correct color information can be detected when the subject is tracked based on the color information of the subject to be tracked.

非撮影時にはまた、被写体光束の一部がメインミラー25を透過し、サブミラー26で反射されてAFモジュール21へ導かれ、AFモジュール21の焦点検出素子3で各焦点検出エリアごとの一対の被写体像のズレ量が検出される。   When not photographing, a part of the subject luminous flux is transmitted through the main mirror 25, reflected by the sub mirror 26 and guided to the AF module 21, and a pair of subject images for each focus detection area by the focus detection element 3 of the AF module 21. The amount of deviation is detected.

撮影時には、メインミラー25とサブミラー26が25’の位置まで跳ね上げられ、撮影レンズ22の撮影光路から退避される。この状態で、絞り23が所定の絞り値まで絞り込まれ、シャッター24が所定のシャッター秒時だけ開放されて、撮像素子5による撮像が行われる。シャッター秒時が経過した後、シャッター24が閉じられてメインミラー25とサブミラー26が撮影光路に戻され、絞り23が開放される。   At the time of photographing, the main mirror 25 and the sub mirror 26 are flipped up to the position 25 'and are retracted from the photographing optical path of the photographing lens 22. In this state, the aperture 23 is reduced to a predetermined aperture value, the shutter 24 is opened only for a predetermined shutter time, and imaging by the image sensor 5 is performed. After the shutter time elapses, the shutter 24 is closed, the main mirror 25 and the sub mirror 26 are returned to the photographing optical path, and the aperture 23 is opened.

図4、図5は第1の実施の形態の追尾撮像処理を示すフローチャートである。制御回路17は、操作スイッチ類16に含まれる撮影モードセレクターにより追尾撮影モードが選択され、レリーズ半押しスイッチがオンするとこの追尾撮影処理を実行する。ステップ1において測光素子1と測光回路2により被写界の測光を行い、各分割測光エリアのRGB各色ごとに測光値R[X,Y]、G[X,Y]、B[X,Y](X=1〜8、Y=1〜6、図3(a)参照)をバッファー7に記憶する。   4 and 5 are flowcharts illustrating the tracking imaging process according to the first embodiment. The control circuit 17 executes the tracking shooting process when the tracking shooting mode is selected by the shooting mode selector included in the operation switches 16 and the release half-press switch is turned on. In step 1, the photometry element 1 and the photometry circuit 2 perform photometry of the object scene, and the photometric values R [X, Y], G [X, Y], B [X, Y] for each RGB color in each divided photometry area. (X = 1 to 8, Y = 1 to 6, see FIG. 3A) is stored in the buffer 7.

続くステップ2で焦点検出素子3と焦点検出回路4により各焦点検出エリアごとのデフォーカス量D[N](N=1〜11)を検出する。ここで、Nは焦点検出エリアの番号で、図3(a)において上段左から1〜3、中段左から4〜8、下段左から9〜11とする。操作スイッチ類16の方向キー(不図示)を用いて撮影者が選択した焦点検出エリアのデフォーカス量D[N]をバッファー7に記憶する。例えば、中央の焦点検出エリアが選択されている場合はデフォーカス量D[6]を記憶する。   In subsequent step 2, the focus detection element 3 and the focus detection circuit 4 detect the defocus amount D [N] (N = 1 to 11) for each focus detection area. Here, N is the number of the focus detection area, and in FIG. 3A, it is 1 to 3 from the upper left, 4 to 8 from the middle left, and 9 to 11 from the lower left. The defocus amount D [N] of the focus detection area selected by the photographer using the direction keys (not shown) of the operation switches 16 is stored in the buffer 7. For example, when the central focus detection area is selected, the defocus amount D [6] is stored.

ステップ3で各分割測光エリアの測光値R[X,Y]、G[X,Y]、B[X,Y]に基づいて、画像データを演算する。この一実施の形態では画像データとして色データと輝度データを演算し、色データと輝度データをテンプレート(基準画像)の画像データとして追尾処理を行うが、色データのみをテンプレート画像データとして追尾処理を行ってもよい。まず、次式により色データを求める。
RG[X,Y]=Log2(R[X,Y])−Log2(G[X,Y]),
BG[X,Y]=Log2(B[X,Y])−Log2(G[X,Y]) ・・・(1)
(1)式において、X=1〜8、Y=1〜6である。次に、測光素子1の電荷蓄積時間(露光時間)をT、測光回路2のゲインをGN、各色の係数をKr、Kg、Kbとして次式により輝度データを求める。
L[X、Y]=Log2(Kr・R[X,Y]+Kg・G[X,Y]+Kb・B[X,Y])−Log2(T)−Log2(GN) ・・・(2)
算出した色データと輝度データをバッファー7に記憶する。
In step 3, image data is calculated based on the photometric values R [X, Y], G [X, Y], and B [X, Y] of each divided photometric area. In this embodiment, color data and luminance data are calculated as image data, and the tracking processing is performed using the color data and luminance data as image data of a template (reference image). However, the tracking processing is performed using only color data as template image data. You may go. First, color data is obtained by the following equation.
RG [X, Y] = Log2 (R [X, Y])-Log2 (G [X, Y]),
BG [X, Y] = Log2 (B [X, Y])-Log2 (G [X, Y]) (1)
In the formula (1), X = 1 to 8, Y = 1 to 6. Next, luminance data is obtained by the following equation, where T is the charge accumulation time (exposure time) of the photometry element 1, GN is the gain of the photometry circuit 2, and Kr, Kg, Kb are the coefficients of each color.
L [X, Y] = Log2 (Kr.R [X, Y] + Kg.G [X, Y] + Kb.B [X, Y])-Log2 (T) -Log2 (GN) (2)
The calculated color data and luminance data are stored in the buffer 7.

ステップ4では、撮影者により選択された焦点検出エリアに対応する分割測光エリアの画像データを、バッファー7に記憶されている測光画面全範囲の画像データから抽出し、この画像データを追尾対象被写体のテンプレートとしてバッファー7に記憶する。この一実施の形態では、図3(b)に示すように、各焦点検出エリアの位置を中心とするX方向2画素(TX=1〜2)、Y方向2画素(TY=1〜2)の2×2画素の正方形配列の領域を追尾対象領域、すなわち追尾枠とし、追尾枠内の2×2画素の画像データを被写体追尾のためのテンプレートとして記憶する。例えば、撮影者が焦点検出エリアN=6を選択した場合には、バッファー7に記憶されているRG[X,Y]、BG[X,Y]、L[X,Y](X=4〜5、Y=3〜4)を抽出し、これをテンプレートの画像データTRG[TX,TY]、TBG[TX,TY]、TL[TX,TY](TX=1〜2、TY=1〜2)としてバッファー7に記憶する。   In step 4, the image data of the divided photometry area corresponding to the focus detection area selected by the photographer is extracted from the image data of the entire photometry screen stored in the buffer 7, and this image data is extracted from the subject to be tracked. Store in the buffer 7 as a template. In this embodiment, as shown in FIG. 3B, two pixels in the X direction (TX = 1 to 2) and two pixels in the Y direction (TY = 1 to 2) centering on the position of each focus detection area. The 2 × 2 pixel square array area is set as a tracking target area, that is, a tracking frame, and 2 × 2 pixel image data in the tracking frame is stored as a subject tracking template. For example, when the photographer selects the focus detection area N = 6, RG [X, Y], BG [X, Y], L [X, Y] (X = 4˜ 5, Y = 3 to 4), and this is extracted as template image data TRG [TX, TY], TBG [TX, TY], TL [TX, TY] (TX = 1 to 2, TY = 1 to 2). ) Is stored in the buffer 7.

追尾枠とテンプレートの設定が終了したらステップ5へ進み、測光素子1と測光回路2により被写界の測光を行い、各分割測光エリアのRGB各色ごとに測光値R[X,Y]、G[X,Y]、B[X,Y](X=1〜8、Y=1〜6)を検出してバッファー7の測光値を更新する。続くステップ6では、焦点検出素子3と焦点検出回路4により各焦点検出エリアごとのデフォーカス量D[N](N=1〜11)を検出し、バッファー7に記憶する。ステップ7で各分割測光エリアの測光値R[X,Y]、G[X,Y]、B[X,Y]に基づいて、(1)式および(2)式により画像データRG[X,Y]、BG[X,Y]、L[X,Y](X=1〜8、Y=1〜6)を演算し、バッファー7の画像データを更新する。   When the setting of the tracking frame and the template is completed, the process proceeds to step 5, where the photometry element 1 and the photometry circuit 2 perform photometry of the object field, and the photometric values R [X, Y], G [ X, Y] and B [X, Y] (X = 1 to 8, Y = 1 to 6) are detected and the photometric value in the buffer 7 is updated. In subsequent step 6, the defocus amount D [N] (N = 1 to 11) for each focus detection area is detected by the focus detection element 3 and the focus detection circuit 4 and stored in the buffer 7. In step 7, based on the photometric values R [X, Y], G [X, Y], B [X, Y] of each divided photometric area, the image data RG [X, Y], BG [X, Y], L [X, Y] (X = 1 to 8, Y = 1 to 6) are calculated, and the image data in the buffer 7 is updated.

ステップ8において、上記ステップ7でバッファー7に記憶した被写体全範囲の画像データRG[X,Y]、BG[X,Y]、L[X,Y](X=1〜8、Y=1〜6)の中から、ステップ4で設定したテンプレートの画像データTRG[TX,TY]、TBG[TX,TY]、TL[TX,TY](TX=1〜2、TY=1〜2)と類似度の高い領域を検索し、テンプレートマッチングを行う。具体的には、図3(a)に太い破線で示すように、測光素子1の測光画面内に追尾枠と同じ大きさの2×2画素の正方配列の評価エリアを設定し、この評価エリアの座標を(HX、HY)とする。図3(a)に太い破線で示す評価エリアの座標はHX=3、HY=2となる。   In step 8, image data RG [X, Y], BG [X, Y], L [X, Y] of the entire subject range stored in the buffer 7 in step 7 (X = 1 to 8, Y = 1 to 1). 6) Similar to the template image data TRG [TX, TY], TBG [TX, TY], TL [TX, TY] (TX = 1 to 2, TY = 1 to 2) set in step 4 Search for high-frequency areas and perform template matching. Specifically, as shown by a thick broken line in FIG. 3A, an evaluation area of a square array of 2 × 2 pixels having the same size as the tracking frame is set in the photometric screen of the photometric element 1, and this evaluation area Is set to (HX, HY). The coordinates of the evaluation area indicated by the thick broken line in FIG. 3A are HX = 3 and HY = 2.

この評価エリアにおいて、次式により評価エリアの画像データとテンプレートの画像データの差の絶対値の総和Diff[HX,HY]を求める。この明細書ではDiff[HX,HY]を“残差量”という。評価エリアとテンプレートとの画像データの残差量が少ないほど、両エリアの類似度が高いことになる。
Diff[HX,HY]=ΣΣ{Krg・ABS(RG[HX-1+TX,HY-1+TY]−TRG[TX,TY])+Kbg・ABS(BG[HX-1+TX,HY-1+TY]−TBG[TX,TY])+Kl・ABS(L[HX-1+TX,HY-1+TY]−TL[TX,TY] ・・・(3)
(3)式において、ΣΣはTX=1〜2、TY=1〜2の総和演算を表し、Krg、Kbg、Klは各色および輝度データの影響を加減する係数である。測光画面内で評価エリアを少しずつずらしながら(3)式により残差量Diff[HX,HY]を演算し、残差量が最小となる評価エリアの位置座標(HX、HY)を求め、この位置を新しい追尾対象領域すなわち追尾枠とする。
In this evaluation area, a sum Diff [HX, HY] of absolute values of differences between the image data of the evaluation area and the image data of the template is obtained by the following equation. In this specification, Diff [HX, HY] is referred to as “residual amount”. The smaller the residual amount of image data between the evaluation area and the template, the higher the similarity between the two areas.
Diff [HX, HY] = ΣΣ {Krg · ABS (RG [HX-1 + TX, HY-1 + TY] −TRG [TX, TY]) + Kbg · ABS (BG [HX-1 + TX, HY-1 + TY] -TBG [TX, TY]) + Kl ABS (L [HX-1 + TX, HY-1 + TY] -TL [TX, TY] (3)
In the equation (3), ΣΣ represents a sum calculation of TX = 1 to 2, TY = 1 to 2, and Krg, Kbg, and Kl are coefficients that adjust the influence of each color and luminance data. While shifting the evaluation area little by little in the photometry screen, the residual amount Diff [HX, HY] is calculated by the equation (3) to obtain the position coordinates (HX, HY) of the evaluation area that minimizes the residual amount. The position is set as a new tracking target area, that is, a tracking frame.

ステップ9において、上述した被写体追尾演算結果(ステップ8)と焦点検出結果(ステップ6)に基づいて、テンプレートを更新するか否かを判定する。まず、新しい追尾枠の位置座標(HX、HY)に最も近い焦点検出エリアのデフォーカス量をバッファー7から読み出し、D[追尾座標近傍]とする。次に、前回の焦点調節(後述するステップ12)に用いたデフォーカス量をバッファー7から読み出し、D[前回]とする。ただし、追尾撮影処理を開始した直後にはまだ焦点調節が行われていないので、ステップ2でバッファー7に記憶した撮影者の選択エリアのデフォーカス量をD[前回]とする。そして、D[追尾座標近傍]とD[前回]とを比較し、2つのデフォーカス量の差の絶対値が予め定めた判定基準値以下か否かを判定する。この判定基準値には、種々の撮影シーンと撮影条件により実験を行い、同一の被写体のみなせる値を決定する。   In Step 9, it is determined whether or not to update the template based on the subject tracking calculation result (Step 8) and the focus detection result (Step 6). First, the defocus amount of the focus detection area closest to the position coordinates (HX, HY) of the new tracking frame is read from the buffer 7 and is defined as D [near tracking coordinates]. Next, the defocus amount used for the previous focus adjustment (step 12 to be described later) is read from the buffer 7 and is defined as D [previous]. However, since focus adjustment has not yet been performed immediately after the tracking shooting process is started, the defocus amount of the photographer's selection area stored in the buffer 7 in step 2 is set to D [previous]. Then, D [near tracking coordinates] and D [previous] are compared to determine whether or not the absolute value of the difference between the two defocus amounts is equal to or less than a predetermined determination reference value. As the determination reference value, an experiment is performed according to various shooting scenes and shooting conditions, and a value that can be obtained only for the same subject is determined.

D[追尾座標近傍]とD[前回]の差の絶対値が判定基準値以下の場合は、新しい追尾枠内の被写体と前回焦点を合わせた被写体との色や輝度が測光画面上で類似しており、かつ測光画面の奥行き方向(測光画面に垂直な方向)の位置も類似していることになる。したがって、この場合は、新しい追尾枠内の被写体は、当初撮影者が選択した追尾対象の被写体と同一である確率が高いから、新しい追尾枠の画像データによりテンプレートの画像データを更新する。   When the absolute value of the difference between D [near tracking coordinates] and D [previous] is less than the criterion value, the color and brightness of the subject in the new tracking frame and the subject focused on the previous time are similar on the photometry screen. And the position in the depth direction of the photometry screen (direction perpendicular to the photometry screen) is also similar. Therefore, in this case, since there is a high probability that the subject in the new tracking frame is the same as the subject to be tracked initially selected by the photographer, the image data of the template is updated with the image data of the new tracking frame.

一方、D[追尾座標近傍]とD[前回]の差の絶対値が判定基準値より大きい場合には、色や輝度は類似していても、前回焦点を合わせた被写体とは異なる被写体を追尾している可能性が高いため、テンプレートの画像データの更新を行わない。また、新しい追尾枠の位置座標(HX、HY)の近傍に焦点検出エリアが存在しない場合にも、テンプレートの画像データの更新を行わない。   On the other hand, if the absolute value of the difference between D [tracking coordinate vicinity] and D [previous] is larger than the determination reference value, a subject different from the previous focused subject is tracked even though the colors and brightness are similar. Therefore, the template image data is not updated. Further, even when the focus detection area does not exist in the vicinity of the position coordinates (HX, HY) of the new tracking frame, the template image data is not updated.

テンプレート更新が必要と判断された場合にはステップ10へ進み、新しい追尾枠の画像データによりバッファー7のテンプレートの画像データTRG[TX,TY]、TBG[TX,TY]、TL[TX,TY](TX=1〜2、TY=1〜2)を更新する。さらに、ステップ11でD[追尾座標近傍]に基づいてレンズ駆動目標を更新する。ステップ12でレンズ駆動回路10による撮影レンズ22の焦点調節を行う。このとき、ステップ11でレンズ駆動目標を更新した場合は更新後のレンズ駆動目標にしたがってレンズ駆動を行い、レンズ駆動目標の更新を行わなかった場合は前回設定されたレンズ駆動目標にしたがってレンズ駆動を行う。   If it is determined that the template needs to be updated, the process proceeds to step 10, and the template image data TRG [TX, TY], TBG [TX, TY], TL [TX, TY] in the buffer 7 is used based on the image data of the new tracking frame. (TX = 1 to 2, TY = 1 to 2) is updated. Further, in step 11, the lens driving target is updated based on D [near tracking coordinates]. In step 12, the focus of the photographic lens 22 is adjusted by the lens driving circuit 10. At this time, if the lens drive target is updated in step 11, the lens drive is performed according to the updated lens drive target. If the lens drive target is not updated, the lens drive is performed according to the previously set lens drive target. Do.

図5のステップ13へ進み、操作スイッチ類16のレリーズ全押しスイッチによりレリーズ全押し操作を確認し、レリーズ全押し操作が行われているときはステップ15ヘ進み、そうでなければステップ14へ進む。レリーズ全押し操作が行われていないときは、ステップ14でレリーズ半押し操作が継続されているか否かを確認し、レリーズ半押し操作が継続されているときはステップ5へ戻り、上述した処理を繰り返す。レリーズ全押し操作もレリーズ半押し操作も行われていないときは、この追尾撮影処理を終了する。   Proceeding to step 13 in FIG. 5, the release full-pressing switch of the operation switches 16 is checked with the release full-pressing switch. If the release full-pressing operation is being performed, the process proceeds to step 15; . If the release full-press operation is not performed, it is checked in step 14 whether or not the release half-press operation is continued. If the release half-press operation is continued, the process returns to step 5 to perform the above-described processing. repeat. If neither the release full-pressing operation nor the release half-pressing operation is performed, the tracking shooting process is terminated.

レリーズ全押し操作が行われたときは、ステップ15でバッファー7から最新の測光結果(ステップ5で検出した測光値)を読み出し、被写体輝度を検出して露出演算を行う。そして、露出演算結果の絞り値で絞り駆動回路11により絞り調節を行うとともに、露出演算結果のシャッター秒時でシャッター駆動回路12によりシャッター24を駆動する。次に、ステップ16でミラー駆動回路13によりミラーアップを行って撮像素子5により撮像を行う。撮像後のステップ17で画像処理回路8で撮像画像を処理し、メモリカード9に画像を記録する。   When the release full-press operation is performed, the latest photometry result (the photometry value detected in step 5) is read from the buffer 7 in step 15, and the subject brightness is detected to perform exposure calculation. Then, the aperture is adjusted by the aperture driving circuit 11 with the aperture value obtained as a result of the exposure calculation, and the shutter 24 is driven by the shutter driving circuit 12 when the shutter time is the exposure calculation result. Next, in step 16, the mirror drive circuit 13 performs mirror up and the image sensor 5 captures an image. In step 17 after imaging, the image processing circuit 8 processes the captured image and records the image in the memory card 9.

《第2の実施の形態の追尾撮影処理》
上述した第1の実施の形態の追尾撮影処理のテンプレート更新とレンズ駆動目標更新の処理が異なる第2の実施の形態の追尾撮影処理を説明する。なお、この第2の実施の形態の追尾撮影処理では、第1の実施の形態の追尾撮影処理を示す図4のステップ9〜11の処理内容が異なるのみで、その他のステップにおける処理と、図1〜3に示す構成については同様であり、説明を省略する。
<< Tracking Processing of Second Embodiment >>
The tracking imaging process of the second embodiment in which the template update process and the lens drive target update process of the tracking imaging process of the first embodiment described above are different will be described. In the tracking imaging process of the second embodiment, only the processing contents of steps 9 to 11 in FIG. 4 showing the tracking imaging process of the first embodiment are different. The configuration shown in 1 to 3 is the same, and the description is omitted.

この第2の実施の形態の追尾撮影処理では、ステップ12のテンプレート更新処理において、上述した被写体追尾演算結果(ステップ8)と焦点検出結果(ステップ6)に基づいて、テンプレートを更新するか否かを判定する。まず、ステップ6で検出した各焦点検出エリアのデフォーカス量D[N](N=1〜11)をバッファー7から読み出す。次に、前回の焦点調節(図4のステップ12)に用いたデフォーカス量をバッファー7から読み出し、D[前回]とする。ただし、追尾撮影処理を開始した直後にはまだ焦点調節が行われていないので、ステップ2でバッファー7に記憶した撮影者の選択エリアのデフォーカス量をD[前回]とする。そして、D[N](N=1〜11)の中でD[前回]との差の絶対値が最小のデフォーカス量を検索し、その差の絶対値が所定値以下であればD[今回]とする。この所定値には、2つのデフォーカス量を示す被写体が、測光画面に垂直な方向において同一の位置にあると判定できる値を設定する。   In the tracking imaging process of the second embodiment, whether or not to update the template based on the subject tracking calculation result (step 8) and the focus detection result (step 6) in the template update process in step 12 is described. Determine. First, the defocus amount D [N] (N = 1 to 11) of each focus detection area detected in step 6 is read from the buffer 7. Next, the defocus amount used for the previous focus adjustment (step 12 in FIG. 4) is read from the buffer 7 and is defined as D [previous]. However, since focus adjustment has not yet been performed immediately after the tracking shooting process is started, the defocus amount of the photographer's selection area stored in the buffer 7 in step 2 is set to D [previous]. Then, a defocus amount having the smallest absolute value of the difference from D [previous] is searched from D [N] (N = 1 to 11). If the absolute value of the difference is equal to or smaller than a predetermined value, D [ This time]. The predetermined value is set to a value by which it is possible to determine that the subject indicating the two defocus amounts is in the same position in the direction perpendicular to the photometry screen.

次に、D[今回]の位置と新しい追尾枠(図4のステップ8参照)の位置(HX,HY)との測光画面上の距離を算出し、この距離が判定基準値以下の場合は、新しい追尾枠内の被写体と前回焦点を合わせた被写体との色や輝度が測光画面上で類似しており、かつ測光画面の奥行き方向(測光画面に垂直な方向)の位置も類似していることになる。したがって、この場合は、新しい追尾枠内の被写体は、当初撮影者が選択した追尾対象の被写体と同一である確率が高いから、新しい追尾枠の画像データによりテンプレートの画像データを更新する。なお、上述した距離の判定基準値には、種々の撮影シーンと撮影条件により実験を行い、同一の被写体のみなせる値を決定する。   Next, the distance on the photometry screen between the position of D [current] and the position (HX, HY) of the new tracking frame (see step 8 in FIG. 4) is calculated. The color and brightness of the subject in the new tracking frame and the subject focused on the previous time are similar on the metering screen, and the depth direction of the metering screen (direction perpendicular to the metering screen) is also similar. become. Therefore, in this case, since there is a high probability that the subject in the new tracking frame is the same as the subject to be tracked initially selected by the photographer, the image data of the template is updated with the image data of the new tracking frame. For the above-described distance determination reference value, an experiment is performed according to various shooting scenes and shooting conditions, and a value that can be obtained only by the same subject is determined.

一方、D[今回]の位置と新しい追尾枠の位置(HX,HY)との測光画面上の距離が判定基準値より大きい場合には、前回焦点を合わせた被写体と新しい追尾枠の被写体とが異なり、前回焦点を合わせた被写体とは異なる被写体を追尾している可能性が高いため、テンプレートの画像データの更新を行わない。また、D[N](N=1〜11)の中でD[前回]との差の絶対値が最小のデフォーカス量であっても、その差の絶対値が所定値より大きい場合には、D[今回]が存在せず、前回焦点を合わせた被写体とは異なる被写体を追尾している可能性が高いため、テンプレートの画像データの更新を行わない。   On the other hand, if the distance on the photometry screen between the position of D [current] and the position of the new tracking frame (HX, HY) is larger than the determination reference value, the subject focused on the previous time and the subject of the new tracking frame are In contrast, the image data of the template is not updated because there is a high possibility that the subject is different from the subject focused on the previous time. In addition, even if the absolute value of the difference between D [N] (N = 1 to 11) and D [previous] is the smallest defocus amount, if the absolute value of the difference is larger than a predetermined value, , D [current] does not exist, and it is highly likely that the subject that is different from the subject focused on the previous time is being tracked, so that the template image data is not updated.

テンプレート更新が必要と判断された場合にはステップ10へ進み、新しい追尾枠の画像データによりバッファー7のテンプレートの画像データTRG[TX,TY]、TBG[TX,TY]、TL[TX,TY](TX=1〜2、TY=1〜2)を更新する。さらに、ステップ11でD[今回]に基づいてレンズ駆動目標を更新する。   If it is determined that the template needs to be updated, the process proceeds to step 10, and the template image data TRG [TX, TY], TBG [TX, TY], TL [TX, TY] in the buffer 7 is used based on the image data of the new tracking frame. (TX = 1 to 2, TY = 1 to 2) is updated. Further, in step 11, the lens drive target is updated based on D [current].

《第3の実施の形態の追尾撮影処理》
上述した第1および第2の実施の形態の追尾撮影処理のテンプレート更新とレンズ駆動目標更新の処理が異なる第3の実施の形態の追尾撮影処理を説明する。なお、この第3の実施の形態の追尾撮影処理では、第1の実施の形態の追尾撮影処理を示す図4のステップ9〜11の処理内容が異なるのみで、その他のステップにおける処理と、図1〜3に示す構成については同様であり、説明を省略する。
<< Tracking Processing of Third Embodiment >>
The tracking imaging process of the third embodiment in which the template update and lens drive target update processes of the tracking imaging process of the first and second embodiments described above are different will be described. In the tracking shooting process of the third embodiment, only the processing contents of steps 9 to 11 in FIG. 4 showing the tracking shooting process of the first embodiment are different. The configuration shown in 1 to 3 is the same, and the description is omitted.

この第3の実施の形態の追尾撮影処理では、ステップ12のテンプレート更新処理において、上述した被写体追尾演算結果(ステップ8)と焦点検出結果(ステップ6)に基づいて、テンプレートを更新するか否かを判定する。まず、ステップ6で検出した各焦点検出エリアのデフォーカス量D[N](N=1〜11)をバッファー7から読み出す。次に、前回の焦点調節(図4のステップ12)に用いたデフォーカス量をバッファー7から読み出し、D[前回]とする。ただし、追尾撮影処理を開始した直後にはまだ焦点調節が行われていないので、ステップ2でバッファー7に記憶した撮影者の選択エリアのデフォーカス量をD[前回]とする。そして、D[N](N=1〜11)の中でD[前回]との差の絶対値が最小のデフォーカス量を検索し、その差の絶対値が所定値以下であればD[今回]とする。この所定値には、2つのデフォーカス量を示す被写体が、測光画面に垂直な方向において同一の位置にあると判定できる値を設定する。   In the tracking imaging process of the third embodiment, whether or not to update the template based on the subject tracking calculation result (step 8) and the focus detection result (step 6) in the template updating process in step 12 is described. Determine. First, the defocus amount D [N] (N = 1 to 11) of each focus detection area detected in step 6 is read from the buffer 7. Next, the defocus amount used for the previous focus adjustment (step 12 in FIG. 4) is read from the buffer 7 and is defined as D [previous]. However, since focus adjustment has not yet been performed immediately after the tracking shooting process is started, the defocus amount of the photographer's selection area stored in the buffer 7 in step 2 is set to D [previous]. Then, a defocus amount having the smallest absolute value of the difference from D [previous] is searched from D [N] (N = 1 to 11). If the absolute value of the difference is equal to or smaller than a predetermined value, D [ This time]. The predetermined value is set to a value by which it is possible to determine that the subject indicating the two defocus amounts is in the same position in the direction perpendicular to the photometry screen.

次に、ステップ8で求めた残差量Diffの中で、D[今回]の焦点検出エリアに対応する評価エリアで算出された残差量DiffをDiff[今回焦点検出点]とする。この残差量Diff[今回焦点検出点]が予め定めた判定基準値以下の場合は、D[今回]の焦点検出エリアに対応する評価エリアの被写体と前回焦点を合わせた被写体との色や輝度が測光画面上で類似しており、かつ測光画面の奥行き方向(測光画面に垂直な方向)の位置も類似していることになる。したがって、この場合は、D[今回]の焦点検出エリアに対応する評価エリアの被写体は、当初撮影者が選択した追尾対象の被写体と同一である確率が高いから、D[今回]の焦点検出エリアに対応する評価エリアの画像データによりテンプレートの画像データを更新する。なお、上述した残差量の判定基準値には、種々の撮影シーンと撮影条件により実験を行い、同一の被写体のみなせる値を決定する。   Next, in the residual amount Diff obtained in step 8, the residual amount Diff calculated in the evaluation area corresponding to the focus detection area of D [current] is defined as Diff [current focus detection point]. When this residual amount Diff [current focus detection point] is equal to or smaller than a predetermined determination reference value, the color and brightness of the subject in the evaluation area corresponding to the focus detection area of D [current] and the subject focused on the previous time. Are similar on the photometric screen, and the position of the photometric screen in the depth direction (direction perpendicular to the photometric screen) is also similar. Therefore, in this case, the subject in the evaluation area corresponding to the focus detection area of D [current] has a high probability of being the same as the subject to be tracked initially selected by the photographer. The image data of the template is updated with the image data of the evaluation area corresponding to. Note that, for the above-described residual amount determination reference value, an experiment is performed according to various shooting scenes and shooting conditions, and a value that can be obtained only by the same subject is determined.

一方、D[今回]の焦点検出エリアに対応する残差量Diff[今回焦点検出点]が予め定めた判定基準値より大きい場合には、前回焦点を合わせた被写体と新しい追尾枠の被写体とが異なり、前回焦点を合わせた被写体とは異なる被写体を追尾している可能性が高いため、テンプレートの画像データの更新を行わない。また、D[N](N=1〜11)の中でD[前回]との差の絶対値が最小のデフォーカス量であっても、その差の絶対値が所定値より大きい場合には、D[今回]が存在せず、前回焦点を合わせた被写体とは異なる被写体を追尾している可能性が高いため、テンプレートの画像データの更新を行わない。   On the other hand, if the residual amount Diff [current focus detection point] corresponding to the focus detection area of D [current] is larger than a predetermined determination reference value, the subject focused on the previous time and the subject of the new tracking frame are determined. In contrast, the image data of the template is not updated because there is a high possibility that the subject is different from the subject focused on the previous time. In addition, even if the absolute value of the difference between D [N] (N = 1 to 11) and D [previous] is the smallest defocus amount, if the absolute value of the difference is larger than a predetermined value, , D [current] does not exist, and it is highly likely that the subject that is different from the subject focused on the previous time is being tracked, so that the template image data is not updated.

テンプレート更新が必要と判断された場合にはステップ10へ進み、新しい追尾枠の画像データによりバッファー7のテンプレートの画像データTRG[TX,TY]、TBG[TX,TY]、TL[TX,TY](TX=1〜2、TY=1〜2)を更新する。さらに、ステップ11でD[今回]に基づいてレンズ駆動目標を更新する。   If it is determined that the template needs to be updated, the process proceeds to step 10, and the template image data TRG [TX, TY], TBG [TX, TY], TL [TX, TY] in the buffer 7 is used based on the image data of the new tracking frame. (TX = 1 to 2, TY = 1 to 2) is updated. Further, in step 11, the lens drive target is updated based on D [current].

一実施の形態の一眼レフレックス・ディジタルカメラの電気回路を示すブロック図1 is a block diagram showing an electric circuit of a single-lens reflex digital camera of an embodiment; 一実施の形態の一眼レフレックス・ディジタルカメラの機構を示す横断面図Cross-sectional view showing mechanism of single-lens reflex digital camera of one embodiment 測光素子の構成を示す図Diagram showing the configuration of the photometric element 一実施の形態の追尾撮影処理を示すフローチャートThe flowchart which shows the tracking imaging | photography process of one Embodiment 一実施の形態の追尾撮影処理を示すフローチャートThe flowchart which shows the tracking imaging | photography process of one Embodiment

符号の説明Explanation of symbols

1 測光素子
2 測光回路
3 焦点検出素子
4 焦点検出回路
7 バッファー
10 レンズ駆動回路
16 操作スイッチ類
17 制御回路
DESCRIPTION OF SYMBOLS 1 Photometry element 2 Photometry circuit 3 Focus detection element 4 Focus detection circuit 7 Buffer 10 Lens drive circuit 16 Operation switches 17 Control circuit

Claims (7)

光学系によって得られる第1画像及び前記第1画像の後に得られる第2画像を撮像する撮像部と、
前記第1画像のうち追尾対象に対応する部分の画像を第1基準画像として記憶する記憶部と、
前記第2画像のうち、前記第1基準画像に対応する部分の画像を第2基準画像として認識する認識部と、
前記光学系による画面内の複数の焦点検出エリアについて前記光学系の焦点調節状態を繰り返し検出する焦点検出部と、
前記複数の焦点検出エリアから前記追尾対象に対応する部分に最も近い焦点検出エリアを選択する選択部と、
前記第1画像の前記選択部により選択された前記焦点検出エリアの焦点調節状態と、前記第2画像の前記第2基準画像の位置に最も近い前記焦点検出エリアの焦点調節状態との差の絶対値を演算する演算部と、
前記演算部により演算された前記差の絶対値が判定閾値よりも小さいとき、前記記憶部に前記第2基準画像を前記第1基準画像として記憶させるように制御し、前記差の絶対値が前記判定閾値よりも小さくないとき、前記記憶部に前記第2基準画像を記憶させないように制御する制御部とを含むことを特徴とする撮像装置。
An imaging unit that captures a first image obtained by an optical system and a second image obtained after the first image;
A storage unit for storing, as a first reference image, an image of a portion corresponding to the tracking target in the first image;
A recognition unit for recognizing a part of the second image corresponding to the first reference image as a second reference image;
A focus detection unit that repeatedly detects a focus adjustment state of the optical system for a plurality of focus detection areas in a screen by the optical system;
A selection unit that selects a focus detection area closest to a portion corresponding to the tracking target from the plurality of focus detection areas;
The absolute difference between the focus adjustment state of the focus detection area selected by the selection unit of the first image and the focus adjustment state of the focus detection area closest to the position of the second reference image of the second image A calculation unit for calculating a value;
When the absolute value of the difference calculated by the calculation unit is smaller than a determination threshold, the storage unit is controlled to store the second reference image as the first reference image, and the absolute value of the difference is An image pickup apparatus comprising: a control unit that performs control so that the second reference image is not stored in the storage unit when not smaller than a determination threshold value.
請求項1に記載の撮像装置であって、
前記制御部が前記記憶部に前記第2基準画像を記憶させるように制御した場合には、前記第2画像の前記第2基準画像の位置に最も近い前記焦点検出エリアの焦点調節状態に基づいて撮影レンズの駆動制御を行う駆動制御部を備えたことを特徴とする撮像装置。
The imaging apparatus according to claim 1,
When the control unit controls the storage unit to store the second reference image, based on the focus adjustment state of the focus detection area closest to the position of the second reference image of the second image. An image pickup apparatus comprising a drive control unit that performs drive control of a photographing lens.
光学系によって得られる第1画像及び前記第1画像の後に得られる第2画像を撮像する撮像部と、
前記第1画像のうち追尾対象に対応する部分の画像を第1基準画像として記憶する記憶部と、
前記第2画像のうち、前記第1基準画像に対応する部分の画像を第2基準画像として認識する認識部と、
前記光学系による画面内の複数の焦点検出エリアについて前記光学系の焦点調節状態を
繰り返し検出する焦点検出部と、
前記複数の焦点検出エリアから前記追尾対象に対応する部分に最も近い焦点検出エリアを選択する選択部と、
前記第2画像の前記複数の焦点検出エリアの焦点調節状態うち、前記第1画像の前記選択部により選択された前記焦点検出エリアの焦点調節状態との差の絶対値が所定値以下となる焦点調節状態が得られる焦点検出エリアを特定する特定部と、
前記特定部により特定された前記焦点検出エリアの位置と、前記第2基準画像の位置との間隔が判定閾値よりも小さいとき、前記記憶部に前記第2基準画像を前記第1基準画像として記憶させるように制御し、前記間隔が前記判定閾値よりも小さくないとき、前記記憶部に前記第2基準画像を記憶させないように制御する制御部とを含むことを特徴とする撮像装置。
An imaging unit that captures a first image obtained by an optical system and a second image obtained after the first image;
A storage unit for storing, as a first reference image, an image of a portion corresponding to the tracking target in the first image;
A recognition unit for recognizing a part of the second image corresponding to the first reference image as a second reference image;
A focus detection unit that repeatedly detects a focus adjustment state of the optical system for a plurality of focus detection areas in a screen by the optical system;
A selection unit that selects a focus detection area closest to a portion corresponding to the tracking target from the plurality of focus detection areas;
A focus in which an absolute value of a difference between a focus adjustment state of the plurality of focus detection areas of the second image and a focus adjustment state of the focus detection area selected by the selection unit of the first image is a predetermined value or less. A specific unit for identifying a focus detection area where an adjustment state can be obtained;
When the interval between the position of the focus detection area specified by the specifying unit and the position of the second reference image is smaller than a determination threshold value, the second reference image is stored as the first reference image in the storage unit. And a control unit that controls the storage unit not to store the second reference image when the interval is not smaller than the determination threshold value.
請求項3に記載の撮像装置であって、
前記制御部が前記記憶部に前記第2基準画像を記憶させるように制御した場合には、前記特定部により特定された前記焦点検出エリアの焦点調節状態に基づいて撮影レンズの駆動制御を行う駆動制御部とを備えたことを特徴とする撮像装置。
The imaging apparatus according to claim 3,
When the control unit controls the storage unit to store the second reference image, the driving for controlling the driving of the photographing lens based on the focus adjustment state of the focus detection area specified by the specifying unit An image pickup apparatus comprising: a control unit.
光学系によって得られる第1画像及び前記第1画像の後に得られる第2画像を撮像する撮像部と、
前記第1画像のうち追尾対象に対応する部分の画像を第1基準画像として記憶する記憶部と、
前記光学系による画面内の複数の焦点検出エリアについて前記光学系の焦点調節状態を繰り返し検出する焦点検出部と、
前記複数の焦点検出エリアから前記追尾対象に対応する部分に最も近い焦点検出エリアを選択する選択部と、
前記第2画像の前記複数の焦点検出エリアの焦点調節状態うち、前記第1画像の前記選択部により選択された前記焦点検出エリアの焦点調節状態との差の絶対値が所定値以下となる焦点調節状態が得られる焦点検出エリアを特定する特定部と、
前記第2画像のうち、前記特定部により特定された前記焦点検出エリアの位置に対応する部分の画像を第2基準画像として認識する認識部と、
前記第1基準画像と前記第2基準画像とが判定閾値よりも類似しているとき、前記記憶部に前記第2基準画像を前記第1基準画像として記憶させるように制御し、前記第1基準画像と前記第2基準画像とが判定閾値よりも類似していないとき、前記記憶部に前記第2基準画像を記憶させないように制御する制御部とを含むことを特徴とする撮像装置。
An imaging unit that captures a first image obtained by an optical system and a second image obtained after the first image;
A storage unit for storing, as a first reference image, an image of a portion corresponding to the tracking target in the first image;
A focus detection unit that repeatedly detects a focus adjustment state of the optical system for a plurality of focus detection areas in a screen by the optical system;
A selection unit that selects a focus detection area closest to a portion corresponding to the tracking target from the plurality of focus detection areas;
A focus in which an absolute value of a difference between a focus adjustment state of the plurality of focus detection areas of the second image and a focus adjustment state of the focus detection area selected by the selection unit of the first image is a predetermined value or less. A specific unit for identifying a focus detection area where an adjustment state can be obtained;
A recognizing unit that recognizes, as a second reference image, an image of a portion corresponding to the position of the focus detection area identified by the identifying unit in the second image;
When the first reference image and the second reference image are more similar than the determination threshold, the storage unit is controlled to store the second reference image as the first reference image, and the first reference image An image pickup apparatus comprising: a control unit that performs control so that the second reference image is not stored in the storage unit when the image and the second reference image are not similar to a determination threshold.
請求項5に記載の撮像装置であって、
前記制御部が前記記憶部に前記第2基準画像を記憶させるように制御した場合には、前記特定部により特定された前記焦点検出エリアの焦点調節状態に基づいて撮影レンズの駆動制御を行う駆動制御部とを備えたことを特徴とする撮像装置。
The imaging apparatus according to claim 5,
When the control unit controls the storage unit to store the second reference image, the driving for controlling the driving of the photographing lens based on the focus adjustment state of the focus detection area specified by the specifying unit An image pickup apparatus comprising: a control unit.
請求項1〜6のいずれか1項に記載の撮像装置において、
前記焦点検出部は、位相差検出方式によって焦点検出を行うことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 6,
The focus detection unit performs focus detection by a phase difference detection method.
JP2007017528A 2007-01-29 2007-01-29 Imaging device Expired - Fee Related JP5070856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007017528A JP5070856B2 (en) 2007-01-29 2007-01-29 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007017528A JP5070856B2 (en) 2007-01-29 2007-01-29 Imaging device

Publications (2)

Publication Number Publication Date
JP2008187332A JP2008187332A (en) 2008-08-14
JP5070856B2 true JP5070856B2 (en) 2012-11-14

Family

ID=39730096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007017528A Expired - Fee Related JP5070856B2 (en) 2007-01-29 2007-01-29 Imaging device

Country Status (1)

Country Link
JP (1) JP5070856B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5455361B2 (en) * 2008-12-22 2014-03-26 富士フイルム株式会社 Auto focus system
JP2013098746A (en) * 2011-10-31 2013-05-20 Jvc Kenwood Corp Imaging apparatus, imaging method, and program
WO2017110260A1 (en) * 2015-12-22 2017-06-29 富士フイルム株式会社 Focus control device, imaging device, focus control method, and focus control program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015019A (en) * 2001-06-27 2003-01-15 Minolta Co Ltd Device for detecting object and camera
JP2006058431A (en) * 2004-08-18 2006-03-02 Fujinon Corp Autofocusing system
JP4701837B2 (en) * 2005-05-30 2011-06-15 株式会社ニコン Automatic focus adjustment device

Also Published As

Publication number Publication date
JP2008187332A (en) 2008-08-14

Similar Documents

Publication Publication Date Title
JP5564987B2 (en) Subject tracking device and imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
US8525921B2 (en) Image capturing apparatus and control method therefor
US8411159B2 (en) Method of detecting specific object region and digital camera
JP2009109714A (en) Image recognizing device, focus adjusting device, and imaging device
JP5115210B2 (en) Imaging device
JP2008292894A (en) Image tracking device, image tracking method and imaging apparatus
JP2009109839A (en) Image tracking device and imaging device
JP2009004895A (en) Imaging apparatus, image processor, and program
JP5217451B2 (en) Imaging device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP5070856B2 (en) Imaging device
JP2008271006A (en) Image-tracking device and method therefor, and imaging device
JP4935380B2 (en) Image tracking device and imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
JP5418180B2 (en) Digital camera
JP2009044382A (en) Display of camera
JPH09269545A (en) Camera
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5176845B2 (en) Image tracking device and imaging device
JP5541396B2 (en) Image tracking device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP2010054586A (en) Focusing device and imaging apparatus
JP2010117488A (en) Imaging apparatus and focal position-detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111031

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

R150 Certificate of patent or registration of utility model

Ref document number: 5070856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees