JP6330283B2 - Subject tracking device, imaging device, and subject tracking program - Google Patents

Subject tracking device, imaging device, and subject tracking program Download PDF

Info

Publication number
JP6330283B2
JP6330283B2 JP2013204282A JP2013204282A JP6330283B2 JP 6330283 B2 JP6330283 B2 JP 6330283B2 JP 2013204282 A JP2013204282 A JP 2013204282A JP 2013204282 A JP2013204282 A JP 2013204282A JP 6330283 B2 JP6330283 B2 JP 6330283B2
Authority
JP
Japan
Prior art keywords
subject
image
tracking
tracking frame
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013204282A
Other languages
Japanese (ja)
Other versions
JP2015069064A (en
Inventor
啓一 新田
啓一 新田
三郎 笠原
三郎 笠原
龍一 大宮
龍一 大宮
泰正 中島
泰正 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013204282A priority Critical patent/JP6330283B2/en
Publication of JP2015069064A publication Critical patent/JP2015069064A/en
Application granted granted Critical
Publication of JP6330283B2 publication Critical patent/JP6330283B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体追尾装置、撮像装置及び被写体追尾プログラムに関する。   The present invention relates to a subject tracking device, an imaging device, and a subject tracking program.

画像に含まれる被写体を追尾する、いわゆる被写体追尾機能を備えた撮像装置が提供されている。この被写体追尾機能を備えた撮像装置では、例えばライブビュー表示を行う際に、追尾対象となる被写体に対して追尾枠を表示し、撮影者に認識しやすくしている(特許文献1参照)。この被写体追尾機能を用いた場合、被写体が微小移動を繰り返すと追尾枠も被写体に追従して微小移動を繰り返すことから、撮影者にとってはライブビュー表示を集中して観察することができなくなる。したがって、ライブビュー表示上での被写体の移動距離が閾値以下となる場合に、追尾枠を移動させないようにすることも考えられている。   There has been provided an imaging device having a so-called subject tracking function for tracking a subject included in an image. In an imaging apparatus having the subject tracking function, for example, when performing live view display, a tracking frame is displayed for a subject to be tracked so that the photographer can easily recognize the frame (see Patent Document 1). When this subject tracking function is used, if the subject repeats minute movements, the tracking frame also follows the subject and repeats minute movements, so that the photographer cannot observe live view display in a concentrated manner. Therefore, it is considered that the tracking frame is not moved when the moving distance of the subject on the live view display is equal to or less than a threshold value.

特開2010−81587号公報JP 2010-81587 A

しかしながら、例えば表示画面の周縁部に位置した被写体がさらに表示画面の周縁部に向けて移動するようなライブビュー表示においては表示画面の端部からの距離が上述した閾値以下となる位置で被写体が検出されると、仮に被写体が移動したとしても、追尾枠は移動する直前に設定される位置に固定されてしまう。また、被写体が微小移動した後に停止するような場合も同様にして、追尾枠は現在の被写体の位置ではなく、微小移動する直前の被写体の位置に基づいた位置に固定されてしまう。したがって、ライブビュー表示における被写体の追尾状態を適切に認識させることができないという問題がある。   However, for example, in a live view display in which a subject located at the peripheral edge of the display screen further moves toward the peripheral edge of the display screen, the subject is located at a position where the distance from the edge of the display screen is equal to or less than the threshold value described above. When detected, even if the subject moves, the tracking frame is fixed at a position set immediately before the movement. Similarly, when the subject stops after a minute movement, the tracking frame is fixed at a position based on the position of the subject immediately before the minute movement, not the current subject position. Therefore, there is a problem that the tracking state of the subject in the live view display cannot be properly recognized.

本発明は、撮影者に対して被写体の追尾状態を適切に認識させることができるようにした被写体追尾装置、撮像装置及び被写体追尾プログラムを提供することを目的とする。   An object of the present invention is to provide a subject tracking device, an imaging device, and a subject tracking program that allow a photographer to appropriately recognize the tracking state of a subject.

上述した課題を解決するために、本発明の被写体追尾装置は、連続して取得される画像に含まれる被写体を検出する被写体検出部と、第1画像の前記被写体の位置に対して、前記第1画像よりも後に取得される第2画像の前記被写体の位置が所定の範囲内で移動し且つ所定条件を満たさない場合に、前記第2画像に対して設定する、前記被写体を追尾していることを示す追尾枠の位置を前記第1画像に対して設定した前記追尾枠の位置に制御し、前記所定の範囲内で移動し且つ前記所定条件を満足した場合に前記追尾枠の位置を前記第2画像の前記被写体の位置に移動させる制御部と、を備える。 In order to solve the above-described problem, the subject tracking device according to the present invention includes a subject detection unit that detects a subject included in continuously acquired images, and the position of the subject in the first image. Tracking of the subject set for the second image when the position of the subject of the second image acquired after one image moves within a predetermined range and does not satisfy the predetermined condition controls on the position of the tracking frame set for the first image the position of the tracking frame indicating that the position of the tracking frame when satisfying the moving and the predetermined condition within the predetermined range And a controller that moves the subject to the position of the subject in the second image.

また、本発明の撮像装置は、上述した被写体追尾装置と、被写体光を取り込むことで、画像を連続して取得することが可能な撮像素子と、前記画像を表示する表示部と、前記表示部に前記画像を表示させるとともに、表示させる画像に前記追尾枠を重畳させる表示制御部と、を備える。 The imaging device of the present invention includes the above-described subject tracking device, an imaging device that can continuously acquire images by capturing subject light, a display unit that displays the images, and the display unit And a display control unit that superimposes the tracking frame on the image to be displayed.

また、本発明の被写体追尾プログラムは、連続して取得される画像に含まれる被写体を検出する被写体検出工程と、第1画像の前記被写体の位置に対して、前記第1画像よりも後に取得される第2画像の前記被写体の位置が所定の範囲内で移動し且つ所定条件を満たさない場合に、前記第2画像に対して設定する、前記被写体を追尾していることを示す追尾枠の位置を前記第1画像に対して設定した前記追尾枠の位置に制御し、前記所定の範囲内で移動し且つ前記所定条件を満足した場合に前記追尾枠の位置を前記第2画像の前記被写体の位置に移動させる工程と、をコンピュータに実行させることが可能なものである。 The subject tracking program of the present invention is acquired after the first image with respect to a subject detection step for detecting a subject included in continuously acquired images and the position of the subject in the first image. The position of the tracking frame indicating that the subject is being tracked, which is set for the second image when the position of the subject of the second image moves within a predetermined range and does not satisfy the predetermined condition the controlling a position of the tracking frame set for the first image, of the object of the position of the tracking frame when satisfying the moving and the predetermined condition within the predetermined range and the second image The step of moving to a position can be executed by a computer.

本発明によれば、撮影者に対して被写体の追尾状態を適切に認識させることができる。   According to the present invention, the photographer can be made to properly recognize the tracking state of the subject.

撮像装置の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of an imaging device. 撮影時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process at the time of imaging | photography. 追尾処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a tracking process. 取得されるスルー画像と、該スルー画像から検出される被写体に基づいて設定される追尾枠の位置の変化とを示す図である。It is a figure which shows the through image acquired, and the change of the position of the tracking frame set based on the to-be-photographed object detected from this through image.

以下、本発明の実施の形態について説明する。図1は、本実施形態の撮像装置の一例を示す機能ブロック図である。この撮像装置10は、静止画像や動画像を取得する撮影モードの他に、撮影により取得した画像データや、記録媒体28に記録される画像データに基づく画像をモニタ22に再生する再生モードを備えている。上述した撮影モードと再生モードとの切り替えは、操作部材24の操作によって実行される。本実施形態においては、レリーズボタンの操作が行われていない撮影待機状態で得られる画像及びレリーズボタンの半押し操作後に得られる画像をスルー画像と称し、レリーズボタンの全押し操作が実行された時に取得される画像を撮影画像と称して説明する。   Embodiments of the present invention will be described below. FIG. 1 is a functional block diagram illustrating an example of an imaging apparatus according to the present embodiment. In addition to a shooting mode for acquiring still images and moving images, the imaging apparatus 10 includes a playback mode for playing back on the monitor 22 image data acquired by shooting and images based on image data recorded on the recording medium 28. ing. Switching between the photographing mode and the reproduction mode described above is executed by operating the operation member 24. In the present embodiment, an image obtained in a shooting standby state in which the release button is not operated and an image obtained after a half-press operation of the release button are referred to as a through image, and when the release button is fully pressed. The acquired image will be described as a captured image.

撮像装置10は、撮像光学系15、撮像素子16、レンズ駆動回路17、撮像素子駆動回路18、信号処理回路19、データ処理回路20、表示制御回路21、モニタ22、圧縮伸長回路23、操作部材24、測光回路25、振れ検出センサ26、CPU27及び記録媒体28を備えている。ここで、記録媒体28は、メモリカードなどの不揮発性メモリの他、ハードディスク、DVD等の光学ディスクなどから構成される。この記録媒体28は、撮像装置10に内蔵されるものであってもよいし、撮像装置10に着脱自在に装着されるものであってもよい。   The imaging apparatus 10 includes an imaging optical system 15, an imaging element 16, a lens driving circuit 17, an imaging element driving circuit 18, a signal processing circuit 19, a data processing circuit 20, a display control circuit 21, a monitor 22, a compression / expansion circuit 23, and an operation member. 24, a photometric circuit 25, a shake detection sensor 26, a CPU 27, and a recording medium 28. Here, the recording medium 28 includes a nonvolatile memory such as a memory card, an optical disk such as a hard disk, a DVD, and the like. The recording medium 28 may be built in the imaging device 10 or may be detachably attached to the imaging device 10.

撮像光学系15は、複数枚のレンズ群で構成され、撮像素子16の撮像面に被写体像を結像させる。この撮像光学系15は、不図示のフォーカスレンズを含み、レンズ駆動回路17がフォーカスレンズを光軸方向に進退駆動させることにより、撮像光学系15におけるフォーカス調節が行われる。また、撮像光学系15は、不図示のズームレンズを含み、レンズ駆動回路17がズームレンズを光軸方向に進退駆動させることにより、撮像光学系15のズーム調節が行われる。レンズ駆動回路17は、CPU27から出力されるレンズ駆動指令に応じてレンズ駆動信号を発生し、発生したレンズ駆動信号で、不図示のレンズ駆動機構を駆動することにより、各レンズを移動させる。   The imaging optical system 15 includes a plurality of lens groups, and forms a subject image on the imaging surface of the imaging element 16. The imaging optical system 15 includes a focus lens (not shown), and the lens drive circuit 17 drives the focus lens to move back and forth in the optical axis direction, thereby performing focus adjustment in the imaging optical system 15. The imaging optical system 15 includes a zoom lens (not shown), and the lens driving circuit 17 drives the zoom lens to move back and forth in the optical axis direction, thereby performing zoom adjustment of the imaging optical system 15. The lens driving circuit 17 generates a lens driving signal in accordance with a lens driving command output from the CPU 27, and moves each lens by driving a lens driving mechanism (not shown) with the generated lens driving signal.

また、撮像光学系15は、振れ検出センサ26の出力に基づいて、複数枚のレンズのうちの所定のレンズを、撮像光学系15の光軸に対して垂直方向に移動させることにより、撮像素子16上に結像される被写体の位置をシフトする。これにより、振れ補正が行われる。上述した所定のレンズの移動は、不図示の駆動機構を介して実行される。ここで、撮像光学系15を構成する複数枚のレンズのいずれかのレンズを、撮像光学系15の光軸に垂直な方向に移動させる構成ではなく、撮像素子16を撮像光学系15の光軸に垂直な方向に移動させる構成であってもよい。   Further, the imaging optical system 15 moves a predetermined lens of the plurality of lenses in a direction perpendicular to the optical axis of the imaging optical system 15 based on the output of the shake detection sensor 26, thereby obtaining an imaging element. The position of the subject imaged on 16 is shifted. Thereby, shake correction is performed. The movement of the predetermined lens described above is executed via a drive mechanism (not shown). Here, any one of the plurality of lenses constituting the imaging optical system 15 is not configured to move in a direction perpendicular to the optical axis of the imaging optical system 15, but the imaging element 16 is arranged to the optical axis of the imaging optical system 15. It may be configured to move in a direction perpendicular to the direction.

撮像素子16は、静止画像の単写撮像とともに、静止画像の連続撮像、および動画像の撮像が可能である。この撮像素子16は、例えばCCDイメージセンサやCMOSイメージセンサなどから構成される。   The image sensor 16 can capture a still image, a continuous image of a still image, and a moving image. The image sensor 16 is composed of, for example, a CCD image sensor or a CMOS image sensor.

撮像素子駆動回路18は、CPU27から出力される指令に応じて駆動信号を発生し、発生した駆動信号を撮像素子16に供給する。撮像素子16は、供給された駆動信号によって信号電荷の蓄積や蓄積された信号電荷の読み出しを行う。CPU27は、測光回路25による被写界の測光データを用いて被写界の明るさの情報を求め、求めた明るさの情報に基づいて、撮像素子16の電荷蓄積時間、撮像光学系15における絞り、撮像素子16により出力される画像信号の増幅度などを決定する。   The image sensor drive circuit 18 generates a drive signal in response to a command output from the CPU 27 and supplies the generated drive signal to the image sensor 16. The image sensor 16 accumulates signal charges and reads the accumulated signal charges according to the supplied drive signal. The CPU 27 obtains information on the brightness of the object scene using the photometry data of the object scene obtained by the photometry circuit 25, and based on the obtained information on the brightness, the charge accumulation time of the image sensor 16 and the imaging optical system 15. The aperture, the amplification degree of the image signal output from the image sensor 16 and the like are determined.

信号処理回路19は、CPU27からの指令を受けて入力信号に対して、増幅処理、直流再生処理、A/D変換処理、ホワイトバランス処理及びガンマ処理を施し、信号処理後のデータを画像データとしてデータ処理回路20へ出力する。   Upon receiving a command from the CPU 27, the signal processing circuit 19 performs amplification processing, direct current reproduction processing, A / D conversion processing, white balance processing, and gamma processing on the input signal, and uses the data after the signal processing as image data. The data is output to the data processing circuit 20.

データ処理回路20は、CPU27からの指令に応じて、信号処理回路19より出力された画像データを圧縮伸長回路23に出力するとともに、モニタ22に画像を表示するために必要な解像度変換処理(画素数変換)処理を画像データに施し、解像度変換処理後の画像データを表示制御回路21へ出力する。なお、データ処理回路20は、データズーム処理を行う場合には、入力される画像データに対して解像度変換処理を施して、圧縮伸長回路23および表示制御回路21にそれぞれ出力する。   The data processing circuit 20 outputs the image data output from the signal processing circuit 19 to the compression / decompression circuit 23 in response to a command from the CPU 27 and also performs resolution conversion processing (pixels) necessary for displaying an image on the monitor 22. (Number conversion) processing is performed on the image data, and the image data after the resolution conversion processing is output to the display control circuit 21. Note that, when performing data zoom processing, the data processing circuit 20 performs resolution conversion processing on input image data and outputs the result to the compression / decompression circuit 23 and the display control circuit 21.

また、この他に、データ処理回路20は、撮影が実行されていない撮影待機状態においてスルー画像を撮像している場合や動画像を撮像している場合に、後述する追尾処理を実行する。   In addition to this, the data processing circuit 20 performs a tracking process described later when a through image is captured or a moving image is captured in a shooting standby state in which shooting is not performed.

表示制御回路21は、CPU27からの指令に応じて、データ処理回路20から入力される画像データに所定の信号処理を施してモニタ22に出力する。表示制御回路21は、画像データに撮影メニュー、カーソルの他、被写体の位置を示す追尾枠などのオーバーレイ画像データを重畳する処理を行う。これにより、オーバーレイ画像が重畳された画像がモニタ22に表示される。   In response to a command from the CPU 27, the display control circuit 21 performs predetermined signal processing on the image data input from the data processing circuit 20 and outputs the image data to the monitor 22. The display control circuit 21 performs processing for superimposing overlay image data such as a tracking frame indicating the position of the subject in addition to the shooting menu and the cursor on the image data. As a result, an image on which the overlay image is superimposed is displayed on the monitor 22.

圧縮伸長回路23は、CPU27からの指令に応じて、データ処理回路20から出力される画像データに、例えばJPEG形式などの所定の形式で圧縮処理を施し、圧縮処理後のデータを記録媒体28に書き込む。撮影時に記録媒体28へ画像データを記録する場合、記録する画像データに対応する画像がモニタ22に表示される。なお、操作部材24による操作により画像データの非圧縮での記録が指示された場合、圧縮伸長回路23は圧縮処理を行わずに、記録媒体28へ画像データを記録する。   The compression / decompression circuit 23 performs a compression process on the image data output from the data processing circuit 20 in a predetermined format such as a JPEG format in response to a command from the CPU 27, and the compressed data is stored in the recording medium 28. Write. When image data is recorded on the recording medium 28 during shooting, an image corresponding to the image data to be recorded is displayed on the monitor 22. Note that in the case where an instruction to perform non-compression of image data is given by the operation of the operation member 24, the compression / decompression circuit 23 records the image data on the recording medium 28 without performing compression processing.

また、記録媒体28に記録された画像データを再生する場合、圧縮伸長回路23は、CPU27からの指令に応じて記録媒体28に記録された画像データを読み出し、読み出した画像データに対して復号化処理を行う。この復号化処理が施された画像データはデータ処理回路20に出力される。データ処理回路20は、復号化処理された画像データに対して解像度変換処理を施し、表示制御回路21に出力する。これにより、モニタ22に記録媒体28から読み出された画像データに基づく画像が表示される。   When reproducing the image data recorded on the recording medium 28, the compression / decompression circuit 23 reads the image data recorded on the recording medium 28 in accordance with a command from the CPU 27, and decodes the read image data. Process. The decoded image data is output to the data processing circuit 20. The data processing circuit 20 performs resolution conversion processing on the decoded image data and outputs it to the display control circuit 21. As a result, an image based on the image data read from the recording medium 28 is displayed on the monitor 22.

操作部材24は、レリーズボタンを含み、操作内容に応じた操作信号をCPU27に出力する。CPU27は、レリーズボタンの押圧操作に基づくレリーズ操作信号が操作部材24から入力されると、撮像素子16から読み出される画像信号の中で、撮像画面内に予め設定されているフォーカス検出領域に対応する信号を用いて公知のコントラスト方式のAF(オートフォーカス)動作を行う。   The operation member 24 includes a release button and outputs an operation signal corresponding to the operation content to the CPU 27. When a release operation signal based on the pressing operation of the release button is input from the operation member 24, the CPU 27 corresponds to a focus detection area set in advance in the imaging screen in the image signal read from the imaging element 16. A known contrast AF (autofocus) operation is performed using the signal.

具体的には、CPU20は、信号処理回路19によって信号処理された画像データのうち、フォーカス検出領域に対応するデータについての高周波成分の積算値(いわゆる焦点評価値)を最大にするように、レンズ駆動指令(フォーカス調節信号)をレンズ駆動回路17に出力する。焦点評価値を最大にするフォーカスレンズの位置は、撮像素子16によって撮像される被写体像のエッジのぼけをなくし、画像のコントラストを最大にする(尖鋭度を高める)合焦位置である。   Specifically, the CPU 20 sets the lens so that the integrated value (so-called focus evaluation value) of the high-frequency component for the data corresponding to the focus detection area among the image data signal-processed by the signal processing circuit 19 is maximized. A drive command (focus adjustment signal) is output to the lens drive circuit 17. The position of the focus lens that maximizes the focus evaluation value is a focus position that eliminates blurring of the edge of the subject image captured by the image sensor 16 and maximizes the contrast of the image (increases sharpness).

なお、上記コントラスト方式のAF動作に加えて、公知の瞳分割方式による位相差AF動作を行うように構成してもよい。また、上記コントラスト方式のAF動作に変えて、撮像面に焦点検出用の画素が埋め込まれた撮像素子16を用いることで位相差AFを行うことも可能である。   In addition to the contrast AF operation, a phase difference AF operation by a known pupil division method may be performed. Further, in place of the contrast AF operation, the phase difference AF can be performed by using the imaging element 16 in which focus detection pixels are embedded in the imaging surface.

また、操作部材24は、ズーム操作部材を含む。ズーム操作に基づくズーム操作信号が操作部材24から入力されると、CPU27は、データ処理回路20へ指令を出力し、画像データに対する解像度変換処理の変換比率を操作信号に基づいて変化させる。これにより、モニタ22に表示される画像が拡大もしくは縮小、つまり電気的なズーム調節が実行される。解像度変換比率は電子ズーム倍率に対応する。データ処理回路20が電子ズーム倍率を高める方向に変換比率を変える場合、再生する画像の一部が拡大されてモニタ22に表示される。この場合、拡大率が上がる反面、再生する画像の表示範囲は狭くなる。一方、データ処理回路20が電子ズーム倍率を低くする方向に変換比率を変える場合、モニタ22に表示される再生画像の拡大率が下がる反面、再生画像の表示範囲は広くなる。   The operation member 24 includes a zoom operation member. When a zoom operation signal based on the zoom operation is input from the operation member 24, the CPU 27 outputs a command to the data processing circuit 20, and changes the conversion ratio of the resolution conversion process for the image data based on the operation signal. Thereby, the image displayed on the monitor 22 is enlarged or reduced, that is, electrical zoom adjustment is executed. The resolution conversion ratio corresponds to the electronic zoom magnification. When the data processing circuit 20 changes the conversion ratio in the direction of increasing the electronic zoom magnification, a part of the image to be reproduced is enlarged and displayed on the monitor 22. In this case, the enlargement ratio is increased, but the display range of the image to be reproduced is narrowed. On the other hand, when the data processing circuit 20 changes the conversion ratio in the direction of decreasing the electronic zoom magnification, the enlargement ratio of the reproduced image displayed on the monitor 22 is reduced, but the display range of the reproduced image is widened.

振れ検出センサ26は、例えば角速度センサ、ジャイロセンサなどから構成される。この振れ検出センサ26は、撮像装置10の筐体内に設けられ、撮像装置10の振れを例えば撮像光学系15の光軸に直交する平面内の二方向について検出する。   The shake detection sensor 26 includes, for example, an angular velocity sensor, a gyro sensor, and the like. The shake detection sensor 26 is provided in the housing of the imaging device 10 and detects the shake of the imaging device 10 in, for example, two directions in a plane orthogonal to the optical axis of the imaging optical system 15.

筐体に振れが生じたときに、振れ検出センサ26は、これを検知し、上述した二方向の振れ量データをCPU27に出力する。CPU27は、筐体の振れに伴う撮像素子16の撮像面上に結像される被写体像の移動が打ち消されるように、撮像光学系15を構成する補正光学系を、レンズ駆動回路17を介して移動させる。これにより、振れ補正が実行される。   When shake occurs in the housing, the shake detection sensor 26 detects this and outputs the above-described two-way shake amount data to the CPU 27. The CPU 27 provides a correction optical system constituting the imaging optical system 15 via the lens driving circuit 17 so that the movement of the subject image formed on the imaging surface of the imaging element 16 due to the shake of the housing is canceled. Move. As a result, shake correction is performed.

次に、データ処理回路20の構成について説明する。データ処理回路20は、被写体検出部31、被写体追尾部32、コアリング処理部33及びフィルタリング処理部34を有している。   Next, the configuration of the data processing circuit 20 will be described. The data processing circuit 20 includes a subject detection unit 31, a subject tracking unit 32, a coring processing unit 33, and a filtering processing unit 34.

被写体検出部31は、解像度変換処理が施された画像データを用いて、被写体追尾動作を開始する初期フレームにおいて、当該画像データに基づく画像に含まれる被写体を検出する。被写体を検出する方法としては、例えば主要な被写体(主要被写体)としての人物の特徴を示す特徴情報(例えば、顔の特徴情報)、又は、乗り物(自動車、電車、航空機等)の特徴を示す特徴情報等に基づいて、画像に含まれる被写体の領域を検出する。そして、検出した主要被写体の領域の画像(以下、被写体画像)データを生成する。また、被写体検出部31は、検出した被写体の画面内の位置(座標)と、主要被写体の大きさとを示す被写体情報を生成する。   The subject detection unit 31 detects the subject included in the image based on the image data in the initial frame where the subject tracking operation is started, using the image data that has been subjected to the resolution conversion process. As a method for detecting a subject, for example, feature information (for example, feature information of a face) indicating characteristics of a person as a main subject (main subject), or a feature indicating characteristics of a vehicle (car, train, aircraft, etc.) Based on the information or the like, the area of the subject included in the image is detected. Then, image data (hereinafter referred to as subject image) data of the detected main subject region is generated. The subject detection unit 31 also generates subject information indicating the position (coordinates) of the detected subject in the screen and the size of the main subject.

ここで、被写体検出部31の被写体画像データの生成は、自動的な生成に限定されるものではなく、たとえば、操作部材24の操作により、撮影者がモニタ22に表示された被写体像を指示することにより、被写体検出部31が、指示された被写体の領域の検出、被写体画像データの生成、及び検出した被写体の画面内の位置(座標)と主要被写体の大きさとを示す被写体情報の生成を行う構成としてもよい。   Here, the generation of the subject image data of the subject detection unit 31 is not limited to automatic generation. For example, the photographer instructs the subject image displayed on the monitor 22 by operating the operation member 24. Thus, the subject detection unit 31 detects the area of the designated subject, generates subject image data, and generates subject information indicating the position (coordinates) of the detected subject in the screen and the size of the main subject. It is good also as a structure.

被写体追尾部32は、初期フレームにおいて被写体検出部31により生成された被写体画像データと、解像度変換処理が施された画像データとを用いて、例えばテンプレートマッチング処理を実行する。このテンプレートマッチング処理については周知であることから、ここでは、その詳細を省略する。テンプレートマッチング処理を行うことで、初期フレームに続くフレームで被写体が検出されると、被写体追尾部32は、検出した被写体に基づいた被写体情報を生成する。なお、上記説明では、被写体追尾部32が、初期フレームに続くフレームでテンプレートマッチング処理により被写体を検出する例について説明したがこれに限定する必要はなく、パーティクルフィルタなどその他の手法を用いて初期フレームに続くフレームの被写体を検出する構成としてもよい。   The subject tracking unit 32 performs, for example, a template matching process using the subject image data generated by the subject detection unit 31 in the initial frame and the image data subjected to the resolution conversion process. Since this template matching process is well known, its details are omitted here. When the subject is detected in a frame following the initial frame by performing the template matching process, the subject tracking unit 32 generates subject information based on the detected subject. In the above description, the example in which the subject tracking unit 32 detects the subject by the template matching process in the frame following the initial frame is not limited to this, and the initial frame is not limited to this by using other methods such as a particle filter. A configuration may be adopted in which the subject of the frame following is detected.

コアリング処理部33は、時間的に前後するスルー画像のそれぞれから検出される被写体の位置情報と、モニタ22に表示された追尾枠の位置情報とを用いて、コアリング処理を行う。ここで、モニタ22に表示された追尾枠とは、時間的に前後するスルー画像のうち、時間的に前となるスルー画像に対して設定される追尾枠である。   The coring processing unit 33 performs the coring process using the position information of the subject detected from each of the through images that move back and forth in time and the position information of the tracking frame displayed on the monitor 22. Here, the tracking frame displayed on the monitor 22 is a tracking frame set for a through image that is temporally previous among through images that are temporally forward and backward.

コアリング処理は、以下の手順で実行される。まず、コアリング処理部33は、時間的に前となるスルー画像に対する追尾枠の位置と、時間的に後となるスルー画像から検出された被写体の位置との距離Dが予め定めた閾値Dを超過するか否かの判定(第1判定)を行う。なお、追尾枠の位置や被写体の位置とは、各々、追尾枠の中心の位置や被写体の中心の位置である。第1判定の結果、上述した距離Dが予め定めた閾値D以下となる場合、コアリング処理部33は、時間的に前後するスルー画像のそれぞれから検出された被写体の位置が一致しているか否かの判定(第2判定)を行う。第2判定の結果、時間的に前後するスルー画像のそれぞれから検出された被写体の位置が一致しない場合、コアリング処理部33は、時間的に前に得られたスルー画像に対する追尾枠の位置(言い換えれば、モニタ22に表示されている追尾枠の位置)を、時間的に後に得られるスルー画像に対する追尾枠の位置として設定する。したがって、追尾枠の位置が固定される。 The coring process is executed according to the following procedure. First, the coring processing unit 33 determines a distance D 0 between the position of the tracking frame with respect to the through image that is temporally ahead and the position of the subject that is detected from the through image that is temporally later. Is determined (first determination). The position of the tracking frame and the position of the subject are the center position of the tracking frame and the center position of the subject, respectively. As a result of the first determination, when the above-mentioned distance D is equal to or less than the predetermined threshold D 0 , the coring processing unit 33 confirms whether the positions of the subjects detected from the through images that move back and forth in time coincide with each other. It is determined whether or not (second determination). As a result of the second determination, when the positions of the subjects detected from the through images that are temporally different from each other do not match, the coring processing unit 33 determines the position of the tracking frame with respect to the through image obtained before in time ( In other words, the position of the tracking frame displayed on the monitor 22) is set as the position of the tracking frame with respect to the through image obtained later in time. Therefore, the position of the tracking frame is fixed.

上述した第2判定において、時間的に前後するスルー画像のそれぞれから検出される被写体の位置が一致すると判定された場合、コアリング処理部33は、時間的に前後するスルー画像のそれぞれから検出される被写体の位置が一致すると判定された回数Sが予め設定された閾値S以上であるか否かの判定(第3判定)を行う。この第3判定において、時間的に前後するスルー画像のそれぞれから検出される被写体の位置が一致すると判定された回数Sが予め設定された閾値S未満となる場合に、コアリング処理部33は、時間的に前に得られたスルー画像に対する追尾枠の位置を、時間的に後に得られたスルー画像に対する追尾枠の位置として設定する。したがって、この場合も、追尾枠の位置が固定される。
上述した第1判定において、時間的に前に得られたスルー画像に対する追尾枠の位置と、時間的に後に得られたスルー画像から検出された被写体の位置との距離Dが予め定めた閾値Dを超過する場合、コアリング処理部33は、コアリング処理を終了させ、フィルタリング処理部34における処理を実行する。
In the second determination described above, when it is determined that the positions of the subjects detected from the through images that move forward and backward in time match, the coring processing unit 33 is detected from each of the through images that move back and forth in time. A determination (third determination) is made as to whether or not the number of times S determined that the positions of the subject to be matched are equal to or greater than a preset threshold value S 0 . In this third determination, when the number of times S determined that the positions of the subjects detected from the through images that move forward and backward coincide with each other is less than a preset threshold value S 0 , the coring processing unit 33 The position of the tracking frame with respect to the through image obtained earlier in time is set as the position of the tracking frame with respect to the through image obtained later in time. Therefore, also in this case, the position of the tracking frame is fixed.
In the first determination described above, the distance D between the position of the tracking frame with respect to the through image obtained earlier in time and the position of the subject detected from the through image obtained later in time is a predetermined threshold D. If it exceeds 0 , the coring processing unit 33 ends the coring processing and executes the processing in the filtering processing unit 34.

また、第3判定において、時間的に前後するスルー画像のそれぞれから検出される被写体の位置が一致すると判定された回数Sが予め設定された閾値S以上となる場合、コアリング処理部33は、コアリング処理を終了させる。この場合、時間的に後に得られたスルー画像から検出された被写体の位置が、このフレームにおける追尾枠の位置として設定される。つまり、追尾枠の位置の固定が解除される。 Further, in the third determination, when the number of times S determined that the positions of the subjects detected from the through images that move back and forth in time coincide with each other is equal to or greater than a preset threshold value S 0 , the coring processing unit 33 Then, the coring process is terminated. In this case, the position of the subject detected from the through image obtained later in time is set as the position of the tracking frame in this frame. That is, the tracking frame position is released.

フィルタリング処理部34は、時間的に前に得られたスルー画像に重畳された追尾枠の位置情報と、時間的に後に得られたスルー画像から検出された被写体に基づく被写体情報とを用いて、追尾枠の表示位置(座標)演算に際して、時間軸方向のフィルタリング処理を行う。なお、フィルタリング処理は、例えば時間的に前に得られたスルー画像に重畳された追尾枠の位置と、時間的に後に得られたスルー画像から検出された被写体の位置との平均値を求める処理である。本実施形態では、追尾枠の位置の固定が解除されると、フィルタリング処理が実行される。   The filtering processing unit 34 uses the position information of the tracking frame superimposed on the through image obtained earlier in time and the subject information based on the subject detected from the through image obtained later in time. When calculating the display position (coordinates) of the tracking frame, filtering in the time axis direction is performed. For example, the filtering process is a process for obtaining an average value of the position of the tracking frame superimposed on the through image obtained before in time and the position of the subject detected from the through image obtained later in time. It is. In the present embodiment, when the tracking frame position is released, filtering processing is executed.

以下、撮影モードに設定された時の撮像装置10の処理の流れについて、図2のフローチャートに基づいて説明する。   Hereinafter, the flow of processing of the imaging apparatus 10 when the photographing mode is set will be described based on the flowchart of FIG.

ステップS101は、スルー画像を撮像する処理である。CPU27は、測光回路25から得られた測光データを用いて被写界の明るさを算出する。算出した被写界の明るさの情報に基づいて、CPU27は、撮像素子16の電荷蓄積時間、撮像光学系15における絞り、撮像素子16により出力される画像信号の増幅度などを決定する。そして、CPU27は、撮像素子16を駆動させるための駆動信号を撮像素子駆動回路18に出力する。この駆動信号を受けて、撮像素子駆動回路18は、撮像素子16を駆動する。したがって、撮像素子16から例えば30fpsのフレームレートで画像信号が出力される。   Step S101 is processing for capturing a through image. The CPU 27 calculates the brightness of the object scene using the photometric data obtained from the photometric circuit 25. Based on the calculated information about the brightness of the object scene, the CPU 27 determines the charge accumulation time of the image sensor 16, the diaphragm in the image pickup optical system 15, the amplification degree of the image signal output from the image sensor 16, and the like. Then, the CPU 27 outputs a drive signal for driving the image sensor 16 to the image sensor drive circuit 18. Upon receiving this drive signal, the image sensor drive circuit 18 drives the image sensor 16. Therefore, an image signal is output from the image sensor 16 at a frame rate of 30 fps, for example.

ステップS102は、画像処理である。信号処理回路19は、入力される画像信号に対して増幅処理、直流再生処理、A/D変換処理、ホワイトバランス処理及びガンマ処理を施し、信号処理後のデータをスルー画像データとしてデータ処理回路20へ出力する。データ処理回路20は、入力されたスルー画像データに対して、モニタ22に画像を表示するために必要な解像度変換処理(画素数変換)処理を施し、解像度変換処理後のスルー画像データを表示制御回路21へ出力する。   Step S102 is image processing. The signal processing circuit 19 performs amplification processing, DC reproduction processing, A / D conversion processing, white balance processing, and gamma processing on the input image signal, and the data processing circuit 20 uses the signal-processed data as through image data. Output to. The data processing circuit 20 performs resolution conversion processing (pixel number conversion) processing necessary for displaying an image on the monitor 22 on the input through image data, and controls display of the through image data after the resolution conversion processing. Output to the circuit 21.

ステップS103は、スルー画像を表示する処理である。表示制御回路21は、データ処理回路20から入力されるスルー画像データに所定の信号処理を施してモニタ22に出力する。これにより、スルー画像がモニタ22に表示される。   Step S103 is processing to display a through image. The display control circuit 21 performs predetermined signal processing on the through image data input from the data processing circuit 20 and outputs the processed signal to the monitor 22. As a result, a through image is displayed on the monitor 22.

ステップS104は、撮像処理の回数nがn≧2であるか否かを判定する処理である。CPU27は、撮像処理の回数nをカウントしている。このカウント値nがn≧2である場合には、CPU27は、ステップS104の判定処理の結果をYesとする。この場合、ステップS105に進む。一方、カウント値nがn≧2でない場合、言い換えれば、カウント値nがn=1である場合には、CPU27は、ステップS104の判定処理の結果をNoとする。この場合、ステップS106に進む。   Step S104 is processing for determining whether or not the number n of imaging processing is n ≧ 2. The CPU 27 counts the number n of imaging processes. When the count value n is n ≧ 2, the CPU 27 sets the result of the determination process in step S104 to Yes. In this case, the process proceeds to step S105. On the other hand, when the count value n is not n ≧ 2, in other words, when the count value n is n = 1, the CPU 27 sets the result of the determination process in step S104 to No. In this case, the process proceeds to step S106.

ステップS105は、被写体の追尾処理である。このステップS105の処理については、後述する。   Step S105 is subject tracking processing. The process of step S105 will be described later.

ステップS106は、被写体検出処理である。データ処理回路20は、解像度変換処理を施したスルー画像データを用いて被写体を検出する。そして、データ処理回路20は、検出された被写体の領域に基づく被写体画像データを生成する。また、データ処理回路20は、検出した被写体の位置および大きさからなる被写体情報を生成する。   Step S106 is subject detection processing. The data processing circuit 20 detects a subject using through image data that has been subjected to resolution conversion processing. Then, the data processing circuit 20 generates subject image data based on the detected subject area. Further, the data processing circuit 20 generates subject information including the detected position and size of the subject.

ステップS107は、追尾枠を表示する処理である。データ処理回路20は、生成した被写体情報を表示制御回路21に出力する。表示制御回路21は、入力された被写体情報に基づく追尾枠をオーバーレイ画像データとして生成し、このオーバーレイ画像データを取得されたスルー画像データに重畳する。そして、表示制御回路21は、オーバーレイ画像データが重畳されたスルー画像データをモニタ22に表示する。したがって、追尾枠が重畳されたスルー画像がモニタ22に表示される。   Step S107 is processing to display a tracking frame. The data processing circuit 20 outputs the generated subject information to the display control circuit 21. The display control circuit 21 generates a tracking frame based on the input subject information as overlay image data, and superimposes this overlay image data on the acquired through image data. Then, the display control circuit 21 displays the through image data on which the overlay image data is superimposed on the monitor 22. Accordingly, a through image on which the tracking frame is superimposed is displayed on the monitor 22.

ステップS108は、AF処理である。CPU27は、データ処理回路20において検出した被写体の領域をフォーカス検出領域としたコントラスト方式のAF(オートフォーカス)動作を行う。なお、フォーカス検出領域として検出した被写体の領域を用いるようにしているが、追尾枠の領域をフォーカス検出領域としてもよい。   Step S108 is an AF process. The CPU 27 performs a contrast AF (autofocus) operation using the subject area detected by the data processing circuit 20 as a focus detection area. Although the detected subject area is used as the focus detection area, the tracking frame area may be used as the focus detection area.

ステップS109は、操作部材24の1つであるレリーズボタンの半押し操作があるか否かを判定する処理である。図示は省略するが、レリーズボタンには、その半押し操作を検知するスイッチ(第1スイッチ)と、全押し操作を検知するスイッチ(第2スイッチ)が設けられている。レリーズボタンの第1スイッチからの出力信号がCPU27に入力された場合、CPU27は、ステップS109の判定処理の結果をYesとする。この場合、ステップS110に進む。一方、レリーズボタンの第1スイッチからの出力信号がCPU27に入力されていない場合、CPU27は、ステップS109の判定処理の結果をNoとする。この場合、ステップS101に戻る。そして、ステップS109の判定処理の結果がYesとなるまで、ステップS101からステップS108の処理が繰り返し実行される。   Step S109 is a process of determining whether or not there is a half-press operation of a release button that is one of the operation members 24. Although not shown, the release button is provided with a switch (first switch) for detecting the half-press operation and a switch (second switch) for detecting the full-press operation. When the output signal from the first switch of the release button is input to the CPU 27, the CPU 27 sets the result of the determination process in step S109 to Yes. In this case, the process proceeds to step S110. On the other hand, when the output signal from the first switch of the release button is not input to the CPU 27, the CPU 27 sets the result of the determination process in step S109 to No. In this case, the process returns to step S101. Then, the processing from step S101 to step S108 is repeatedly executed until the result of the determination processing in step S109 is Yes.

以下、ステップS110からステップS115の処理は、ステップS101、ステップS102,ステップS103、ステップS105、ステップS107及びステップS108の処理と同様である。以下、これら処理については、その説明を省略する。なお、これら処理は、AE(Auto Exposure)を固定して実行される。ステップS110からステップS115の処理が実行されると、ステップS116に進む。   Hereinafter, the processing from step S110 to step S115 is the same as the processing of step S101, step S102, step S103, step S105, step S107, and step S108. Hereinafter, description of these processes is omitted. These processes are executed with AE (Auto Exposure) fixed. When the processing from step S110 to step S115 is executed, the process proceeds to step S116.

ステップS116は、レリーズボタンの全押し操作があるか否かを判定する処理である。上述した第2スイッチからの出力信号がCPU27に入力されると、CPU27は、ステップS116の判定処理の結果をYesとする。この場合、ステップS117に進む。一方、第2スイッチからの出力信号がCPU27に入力されない場合、CPU27は、ステップS116の判定処理の結果をNoとする。この場合、ステップS110に戻る。この場合、ステップS116の判定処理の結果がYesとなるまで、ステップS110からステップS115の処理が繰り返し実行される。   Step S116 is processing for determining whether or not the release button is fully pressed. When the output signal from the second switch described above is input to the CPU 27, the CPU 27 sets the result of the determination process in step S116 to Yes. In this case, the process proceeds to step S117. On the other hand, when the output signal from the second switch is not input to the CPU 27, the CPU 27 sets the result of the determination process in step S116 to No. In this case, the process returns to step S110. In this case, the processing from step S110 to step S115 is repeatedly executed until the result of the determination processing in step S116 is Yes.

ステップS117は、撮影画像の撮像処理である。CPU27は、追尾枠に含まれる被写体の領域に焦点が合うように、撮像光学系15を構成するフォーカスレンズの位置を微調整する。そして、決定された撮像条件を用いて、撮像処理を実行する。この撮像処理を行うことで、撮像素子16から画像信号が信号処理回路19に入力される。   Step S117 is a captured image capturing process. The CPU 27 finely adjusts the position of the focus lens constituting the imaging optical system 15 so that the subject area included in the tracking frame is in focus. And an imaging process is performed using the determined imaging condition. By performing this imaging process, an image signal is input from the imaging element 16 to the signal processing circuit 19.

ステップS118は、画像処理である。信号処理回路19は、入力される画像信号に対して増幅処理、直流再生処理、A/D変換処理、ホワイトバランス処理及びガンマ処理を施し、信号処理後のデータを撮影画像データとしてデータ処理回路20へ出力する。   Step S118 is image processing. The signal processing circuit 19 performs amplification processing, DC reproduction processing, A / D conversion processing, white balance processing, and gamma processing on the input image signal, and the data processing circuit 20 uses the data after the signal processing as photographed image data. Output to.

ステップS119は、撮影画像を表示する処理である。表示制御回路21は、データ処理回路20から入力される撮影画像データに所定の信号処理を施してモニタ22に出力する。これにより、撮像画像がモニタ22に表示される。   Step S119 is processing for displaying a captured image. The display control circuit 21 performs predetermined signal processing on the captured image data input from the data processing circuit 20 and outputs the result to the monitor 22. As a result, the captured image is displayed on the monitor 22.

ステップS120は、撮影画像を記録する処理である。信号処理回路19は、画像処理した撮影画像データを圧縮伸長回路23に出力する。圧縮伸長回路23は、入力される画像データに所定の形式で圧縮処理を施し、圧縮処理後のデータを記録媒体28に記録する。なお、非圧縮で画像データを記録する場合には、圧縮伸長回路23は、上述した圧縮処理を行わずに、そのまま記録媒体28に記録する。   Step S120 is processing for recording a captured image. The signal processing circuit 19 outputs the captured image data subjected to the image processing to the compression / decompression circuit 23. The compression / decompression circuit 23 performs compression processing on the input image data in a predetermined format, and records the compressed data on the recording medium 28. When recording image data without compression, the compression / decompression circuit 23 records the image data as it is on the recording medium 28 without performing the above-described compression processing.

次に、上述したステップS105及びステップS113における追尾処理について、図3のフローチャートを用いて説明する。ここで、ステップS203、ステップS207からステップS209及びステップS211の処理がコアリング処理となる。   Next, the tracking process in step S105 and step S113 mentioned above is demonstrated using the flowchart of FIG. Here, the processing from Step S203 and Step S207 to Step S209 and Step S211 is the coring processing.

ステップS201は、テンプレートマッチングを行う処理である。データ処理回路20は、ステップS106の処理を行うことで得られた被写体画像データと解像度変換処理が施された画像データとを用いて、テンプレートマッチング処理を実行する。そして、テンプレートマッチング処理を行うことで被写体が検出された場合に、データ処理回路20は、検出された被写体に基づく被写体情報を生成する。   Step S201 is a process for performing template matching. The data processing circuit 20 executes a template matching process using the subject image data obtained by performing the process of step S106 and the image data subjected to the resolution conversion process. When the subject is detected by performing the template matching process, the data processing circuit 20 generates subject information based on the detected subject.

ステップS202は、時間的に前後するフレームのうち前のフレームで表示された追尾枠の位置と、時間的に前後するフレームのうち後のフレームで検出した被写体の位置の差分ΔX、ΔYを算出する処理である。データ処理回路20は、モニタ22に表示される追尾枠の位置情報と、ステップS201にて生成された被写体情報とを用いて、位置の差分ΔX、ΔYを算出する。例えば時間的に前後するフレームのうちの前のフレーム1で表示される追尾枠の位置を(x,y)、時間的に前後するフレームのうちの後のフレーム2においてステップS201の処理を行うことで検出された被写体の位置を(X,Y)とすると、モニタ22に表示される追尾枠の位置と、ステップS201の処理により検出された被写体の位置の差分ΔX、ΔYは、以下の(1)式、(2)式で算出される。 In step S202, the difference ΔX, ΔY between the position of the tracking frame displayed in the previous frame among the frames preceding and following in time and the position of the subject detected in the subsequent frame among the frames preceding and following in time are calculated. It is processing. The data processing circuit 20 calculates position differences ΔX and ΔY using the position information of the tracking frame displayed on the monitor 22 and the subject information generated in step S201. For example, the position of the tracking frame displayed in the previous frame 1 among the frames that move forward and backward in time (x 1 , y 1 ), Assuming that the position of the detected subject is (X 2 , Y 2 ), the difference ΔX, ΔY between the position of the tracking frame displayed on the monitor 22 and the position of the subject detected by the process of step S201 is It is calculated by the following formulas (1) and (2).

ΔX=|x−X| ・・・(1)
ΔY=|y−Y| ・・・(2)
ステップS203は、追尾枠から被写体までの距離Dが閾値Dを超過するか否かを判定する(第1判定)処理である。データ処理回路20は、上述した(1)式及び(2)式にて求めたΔX及びΔYを用いて、追尾枠から被写体までの距離Dを求める。距離Dは例えば(3)式で求められる。
ΔX = | x 1 −X 2 | (1)
ΔY = | y 1 −Y 2 | (2)
Step S203 is a tracking frame is determined (first determination) process distance D is whether exceeds the threshold value D 0 to the object. The data processing circuit 20 obtains the distance D from the tracking frame to the subject using ΔX and ΔY obtained by the above-described equations (1) and (2). The distance D is calculated | required by (3) Formula, for example.

D=[(ΔX)+(ΔY)1/2 ・・・(3)
データ処理回路20は、上述した(3)式で求まる距離Dを予め定めた閾値Dと比較し、距離Dが閾値Dを超過するか否かを判定する。距離Dが閾値Dを超過する場合、データ処理回路20は、ステップS203の判定処理の結果をYesとし、ステップS204に進む。つまり、これ以前にコアリング処理が継続して行われていた場合にはコアリング処理が終了する。一方、距離Dが閾値D以下となる場合、データ処理回路20は、ステップS203の判定処理の結果をNoとし、ステップS207に進む。
D = [(ΔX) 2 + (ΔY) 2 ] 1/2 (3)
The data processing circuit 20 determines whether or not compared with the threshold value D 0 a predetermined distance D which is obtained by the equation (3) described above, the distance D exceeds the threshold value D 0. If the distance D exceeds the threshold value D 0, the data processing circuit 20, the result of the determination processing in step S203 and Yes, the process proceeds to step S204. That is, if the coring process has been continuously performed before this, the coring process ends. On the other hand, when the distance D becomes the threshold value D 0 or less, the data processing circuit 20, the result of the determination processing in step S203 and No, the process proceeds to step S207.

なお、上述した閾値Dは、用いるスルー画像における解像度や、スルー画像を取得するときのフレームレートに応じて設定される値である。つまり、フレームレートが小さいときには、時間的に前後するフレーム画像のうち、時間的に前となるスルー画像が取得されてから、時間的に後になるスルー画像が取得されるまでの経過時間が長くなる。つまり、時間的に前後するフレーム画像から検出される被写体の移動距離が長くなるので、閾値Dを大きく設定する。一方、フレームレートが大きいときには、時間的に前となるスルー画像が取得されてから、時間的に後になるスルー画像が取得されるまでの経過時間が短くなる。つまり、時間的に前後するフレーム画像から検出される被写体の移動距離が短くなるので、閾値Dを小さく設定する。 The threshold value D 0 described above, and the resolution in the through image used is a value set according to the frame rate when acquiring the through image. In other words, when the frame rate is small, the elapsed time from the acquisition of the through image that is temporally previous to the acquisition of the through image that is temporally later from the acquisition of the through image that is temporally previous is acquired. . That is, since the moving distance of the subject detected from the frame images chronologically successive increases, setting a large threshold value D 0. On the other hand, when the frame rate is high, the elapsed time from when the through image that is temporally ahead is acquired until the through image that is temporally later is acquired becomes short. That is, since the moving distance of the subject detected from the frame images chronologically successive shorter, setting a small threshold value D 0.

ここで、ステップS203の処理として、求めた距離Dが閾値Dを超過するか否かを判定しているが、これに限定されるものではなく、ΔX+ΔYのような距離に関連する値が閾値を超過するか否かを判定する処理とすることも可能である。 Here, as the processing in step S203, it determined distance D is determined whether exceeds the threshold value D 0, is not limited thereto, threshold value related to the distance, such as [Delta] X + [Delta] Y It is also possible to set it as the process which determines whether it exceeds.

ステップS204は、フィルタリング処理である。データ処理回路20は、表示される追尾枠の位置(x,y)と、ステップS201により検出した被写体の位置(X,Y)とから、スルー画像に対する追尾枠の位置を求める。詳細には、以下の(4)式及び(5)式を用いて、時間的に前後するフレームのうち後のフレームにおける追尾枠の位置(x,y)を求める。つまり、ステップS204の処理を行うことで、追尾枠の位置の固定が解除される。 Step S204 is a filtering process. The data processing circuit 20 obtains the position of the tracking frame with respect to the through image from the position (x 1 , y 1 ) of the displayed tracking frame and the position (X 2 , Y 2 ) of the subject detected in step S201. Specifically, using the following equations (4) and (5), the position (x 2 , y 2 ) of the tracking frame in the subsequent frame among the temporally preceding and following frames is obtained. In other words, the tracking frame position is released by performing the process of step S204.

=(x+X)/2 ・・・(4)
=(y+Y)/2 ・・・(5)
ステップS205は、追尾枠の位置を設定する処理である。データ処理回路20は、ステップS204におけるフィルタリング処理を行うことで得られた値(位置)を、追尾枠の位置情報として設定する。そして、データ処理回路20は、設定した追尾枠の位置情報を表示制御回路22に出力する。
x 2 = (x 1 + X 2 ) / 2 (4)
y 2 = (y 1 + Y 2 ) / 2 (5)
Step S205 is processing for setting the position of the tracking frame. The data processing circuit 20 sets the value (position) obtained by performing the filtering process in step S204 as the position information of the tracking frame. The data processing circuit 20 then outputs the set tracking frame position information to the display control circuit 22.

ステップS206は、フレームカウンタの値Sを0に設定する処理である。データ処理回路20は、不図示のフレームカウンタの値Sをリセットする(S=0)。ここで、フレームカウンタは、後述するコアリング処理において、時間的に前後する2つの画像間において、時間的に後に得られる画像の被写体の位置が、時間的に前に得られる画像の被写体の位置に一致する回数をカウントするものである。   Step S206 is processing to set the value S of the frame counter to 0. The data processing circuit 20 resets the value S of a frame counter (not shown) (S = 0). Here, in the coring process described later, the frame counter determines the position of the subject of the image obtained later in time between the two images preceding and following in time, and the position of the subject of the image obtained earlier in time. Is counted.

ステップS203において、距離Dが閾値D以下となる場合、ステップS207に進む。 In step S203, if the distance D is the threshold D 0 below, the process proceeds to step S207.

ステップS207は、今回検出した被写体の位置が、前回検出した被写体の位置と一致するか否かを判定する(第2判定)処理である。ここで、今回検出した被写体の位置とは、時間的に前後する画像(フレーム)のうち、時間的に後に得られたスルー画像から検出した被写体の位置を示している。また、前回検出した被写体の位置とは、時間的に前後する画像(フレーム)のうち、時間的に前に得られたスルー画像から検出した被写体の位置を示している。今回検出した被写体の位置が、前回検出した被写体の位置と一致する場合、データ処理回路20は、ステップS207の判定処理の結果をYesとする。この場合、ステップS208に進む。一方、今回検出した被写体の位置が、前回検出した被写体の位置と一致しない場合、データ処理回路20は、ステップS207の判定処理の結果をNoとする。この場合、ステップS211に進む。このステップS207における処理は、X座標のみ、又はY座標のみで行ってもよいし、X座標およびY座標の双方を用いて行ってもよい。   Step S207 is processing for determining whether or not the position of the subject detected this time matches the position of the subject detected last time (second determination). Here, the position of the subject detected this time indicates the position of the subject detected from the through image obtained later in time among the images (frames) that change in time. Further, the position of the subject detected last time indicates the position of the subject detected from the through image obtained before in time among the images (frames) that move back and forth in time. When the position of the subject detected this time coincides with the position of the subject detected last time, the data processing circuit 20 sets the result of the determination process in step S207 to Yes. In this case, the process proceeds to step S208. On the other hand, when the position of the subject detected this time does not match the position of the subject detected last time, the data processing circuit 20 sets the result of the determination process in step S207 to No. In this case, the process proceeds to step S211. The processing in step S207 may be performed using only the X coordinate or only the Y coordinate, or may be performed using both the X coordinate and the Y coordinate.

ステップS208は、フレームカウンタの値Sに1を加算するインクリメント処理である。データ処理回路20は、不図示のフレームカウンタを有している。データ処理回路20は、フレームカウンタの値Sに+1を加算する。   Step S208 is an increment process for adding 1 to the value S of the frame counter. The data processing circuit 20 has a frame counter (not shown). The data processing circuit 20 adds +1 to the value S of the frame counter.

ステップS209は、フレームカウンタの値Sが閾値S以上であるか否かを判定する(第3判定)処理である。データ処理回路20は、フレームカウンタの値Sを参照して、フレームカウンタの値Sが閾値S以上であるか否かを判定する。フレームカウンタの値Sが閾値S以上である場合、データ処理回路20は、ステップS208の判定処理の結果をYesとする。この場合、ステップS210に進む。つまり、この場合、コアリング処理が終了する。一方、フレームカウンタの値Sが閾値S以下となる場合には、データ処理回路20は、ステップS209の判定処理の結果をNoとする。この場合、ステップS211に進む。 Step S209 determines whether or not the value S of the frame counter is the threshold value S 0 or more (third determination) is processed. The data processing circuit 20 determines, by referring to the value S of the frame counter, whether the value S of the frame counter is the threshold value S 0 or more. If the value S of the frame counter is the threshold value S 0 or more, the data processing circuit 20, a Yes result in decision process in step S208. In this case, the process proceeds to step S210. That is, in this case, the coring process ends. On the other hand, if the value S of the frame counter is the threshold S 0 or less, the data processing circuit 20, and No the result of the determination processing in step S209. In this case, the process proceeds to step S211.

ステップS210は、今回検出した被写体の位置を追尾枠の位置として設定する処理である。データ処理回路20は、検出された被写体の位置を表示させる追尾枠の位置として設定する。つまり、ステップS210の処理が実行されることで、追尾枠の位置の固定が解除される。このステップS210の処理が実行されると、ステップS206に進む。   Step S210 is processing for setting the position of the subject detected this time as the position of the tracking frame. The data processing circuit 20 sets the position of the detected subject as the position of the tracking frame for displaying. That is, the position of the tracking frame is released by executing the process of step S210. When the process of step S210 is executed, the process proceeds to step S206.

ステップS207の判定処理の結果がNoとなる場合、ステップS211に進む。   If the result of the determination process in step S207 is No, the process proceeds to step S211.

ステップS211は、追尾枠の位置を固定する処理である。データ処理回路20は、前回表示した追尾枠の位置情報を、今回表示する追尾枠の位置情報として設定する。つまり、このステップS211の処理が実行されることで、追尾枠の位置が固定される。   Step S211 is processing for fixing the position of the tracking frame. The data processing circuit 20 sets the position information of the tracking frame displayed last time as the position information of the tracking frame displayed this time. That is, the position of the tracking frame is fixed by executing the process of step S211.

以下、被写体が時間t2まで位置Aにいる被写体が、時間t2から時間t3の間でX方向に移動する場合のスルー画像、及びスルー画像に重畳される追尾枠の位置について、図4を用いて説明する。   Hereinafter, with respect to the through image and the position of the tracking frame superimposed on the through image when the subject in the position A from time t2 to time t3 moves in the X direction until time t2, with reference to FIG. explain.

時間t1において被写体が位置Aにあることから、追尾枠40はスルー画像P1から検出される被写体の位置に合わせて表示される。また、時間t2においても被写体は位置Aにある。つまり、時間t1における追尾枠40の位置と、スルー画像P2から検出される被写体の位置との距離Dは、D=0となる。したがって、時間t2における追尾枠40の位置は、時間t1のときと同一の位置となる。   Since the subject is at position A at time t1, the tracking frame 40 is displayed in accordance with the position of the subject detected from the through image P1. Also, the subject is in position A at time t2. That is, the distance D between the position of the tracking frame 40 and the position of the subject detected from the through image P2 at time t1 is D = 0. Therefore, the position of the tracking frame 40 at time t2 is the same position as at time t1.

上述したように、被写体は時間t2から時間t3まで経過する間に位置Aから位置Bに(X方向に)移動する。例えば、時間t2にて検出される被写体のX座標がXt2=90、時間t3にて検出される被写体のX座標がXt3=150である場合、時間t2における追尾枠40の位置から時間t3における被写体の位置までの距離Dは、D=60となる。ここで、閾値Dが20に設定されている場合には、距離D>閾値Dが満足される。このような場合には、コアリング処理が終了し、フィルタリング処理が実行される。ここで、時間t2における追尾枠40の位置xt2は、xt2=90であり、時間t3における被写体の位置Xは、Xt3=150である。よって、時間t3における追尾枠40の位置xt3は、xt3=(xt2+Xt3)/2=(90+150)/2=120となる。 As described above, the subject moves from position A to position B (in the X direction) while time t2 to time t3 have elapsed. For example, when the X coordinate of the subject detected at time t2 is X t2 = 90 and the X coordinate of the subject detected at time t3 is X t3 = 150, the time t3 from the position of the tracking frame 40 at time t2 The distance D to the position of the subject at is D = 60. Here, if the threshold value D 0 is set to 20, the distance D> threshold D 0 is satisfied. In such a case, the coring process ends and the filtering process is executed. Here, the position x t2 of tracking frame 40 at time t2, a x t2 = 90, the position X 3 of the object at time t3 is the X t3 = 0.99. Therefore, the position x t3 of the tracking frame 40 at time t3 becomes x t3 = (x t2 + X t3) / 2 = (90 + 150) / 2 = 120.

時間t3以降は、被写体はX方向及びY方向に移動しない。例えば時間t4において被写体は位置Bにある。時間t3における追尾枠40の位置xt3は、xt3=120、時間t4にて検出される被写体のX座標がXt4=150であることから、時間t3における追尾枠40の位置から時間t4における被写体の位置までの距離Dは、D=30となる。この場合も、距離D>閾値Dを満足するのでコアリング処理が行われず、フィルタリング処理が実行される。ここで、時間t3における追尾枠40の位置xt3は、xt3=120であり、時間t4における被写体の位置Xt4は、Xt4=150である。よって、時間t4における追尾枠40の位置xt4は、xt4=(xt3+Xt4)/2=(120+150)/2=135となる。 After time t3, the subject does not move in the X and Y directions. For example, the subject is at position B at time t4. Since the position x t3 of the tracking frame 40 at time t3 is x t3 = 120 and the X coordinate of the subject detected at time t4 is X t4 = 150, the position x t3 from the position of the tracking frame 40 at time t3 is the time t4. The distance D to the subject position is D = 30. Again, the distance D> coring is not performed because satisfying the threshold D 0, the filtering process is executed. Here, the position x t3 of the tracking frame 40 at time t3 is an x t3 = 120, the position X t4 of the object at time t4 is the X t4 = 0.99. Therefore, the position x t4 of the tracking frame 40 at time t4 is a x t4 = (x t3 + X t4) / 2 = (120 + 150) / 2 = 135.

時間t5における被写体は、時間t4と同様に位置Bにある。時間t4における追尾枠40の位置xt4=135、時間t5における被写体の位置Xt5は、Xt5=150である。よって、時間t4における追尾枠40の位置から時間t5における被写体の位置までの距離Dは、D=15となる。この場合、距離D>閾値Dを満足していない。また、時間t5における被写体の位置は、時間t4における被写体の位置から変化していない。したがって、フレームカウンタの値Sが、S=1となる。ここで、第3判定における閾値SをS=2とすると、S≧Sを満足していないので、この場合、時間t5における追尾枠40の位置は、時間t4における追尾枠40の位置と同一の位置に設定される。 The subject at time t5 is at position B, as is time t4. The position x t4 = 135 of the tracking frame 40 at time t4 and the position X t5 of the subject at time t5 are X t5 = 150. Therefore, the distance D from the position of the tracking frame 40 at time t4 to the position of the subject at time t5 is D = 15. In this case, it does not satisfy the distance D> threshold D 0. Further, the position of the subject at time t5 has not changed from the position of the subject at time t4. Therefore, the value S of the frame counter is S = 1. Here, if the threshold value S 0 in the third determination is S 0 = 2, S ≧ S 0 is not satisfied. In this case, the position of the tracking frame 40 at time t 5 is the position of the tracking frame 40 at time t 4. Is set at the same position.

時間t6における被写体は、時間t5と同様に位置Bにある。時間t5における追尾枠40の位置xt5=135、時間t6における被写体の位置Xt6は、Xt6=150である。したがって、時間t5における追尾枠40の位置から時間t6における被写体の位置までの距離Dは、D=15となる。時間t5と同様に、時間t6においても、距離D>閾値Dを満足していない。また、時間t6における被写体の位置は、時間t5における被写体の位置から変化していない。したがって、フレームカウンタの値Sが、S=2となる。上述したように、第3判定における閾値S=2であることから、S≧Sを満足する。したがって、この場合には、時間t6における追尾枠40の位置は、時間t6における被写体の位置となる。 The subject at time t6 is at position B, as is time t5. The position x t5 = 135 of the tracking frame 40 at time t5 and the position X t6 of the subject at time t6 are X t6 = 150. Therefore, the distance D from the position of the tracking frame 40 at time t5 to the position of the subject at time t6 is D = 15. Similar to time t5, even at time t6, it does not satisfy the distance D> threshold D 0. Further, the position of the subject at time t6 has not changed from the position of the subject at time t5. Therefore, the value S of the frame counter is S = 2. As described above, since S 0 = 2 in the third determination, S ≧ S 0 is satisfied. Therefore, in this case, the position of the tracking frame 40 at time t6 is the position of the subject at time t6.

このように、スルー画像から検出される被写体の移動において、スルー画像間の移動距離が大きく、予め設定した閾値を超過する(第1判定がYesとなる)場合には、コアリング処理が行われていれば当該コアリング処理を終了し、フィルタリング処理を行う。このフィルタリング処理により、追尾枠の位置の固定が解除され、追尾枠の位置が新たに設定される。また、被写体の移動距離が小さく、予め設定した閾値以下となり(第1判定がNoとなり)、また、時間的に前後する画像から得られる被写体の位置が一致していない(第2判定がNoとなる)ときには、コアリング処理によって追尾枠の位置が固定される。   As described above, in the movement of the subject detected from the through image, when the moving distance between the through images is large and exceeds a preset threshold value (first determination is Yes), the coring process is performed. If so, the coring process is terminated and a filtering process is performed. By this filtering process, the position of the tracking frame is released and the position of the tracking frame is newly set. In addition, the movement distance of the subject is small and is equal to or less than a preset threshold (first determination is No), and the positions of the subjects obtained from images that are temporally different do not match (second determination is No). The tracking frame position is fixed by the coring process.

さらに、第1判定がNoとなり、時間的に前後する画像から得られる被写体の位置が一致する(第2判定がYesとなる)ときには、時間的に前後する画像から得られる被写体の位置が一致する回数が閾値以上となるか否かを判定する。時間的に前後する画像から得られる被写体の位置が一致する回数が閾値以上となる(第3判定がYesとなる)場合にはコアリング処理を終了する。したがって、追尾枠の位置の固定が解除され、検出した被写体の位置を追尾枠の位置に新たに設定する。一方、時間的に前後する画像から得られる被写体の位置が一致する回数が閾値未満となる(第3判定がNoとなる)場合はコアリング処理により追尾枠の位置が固定される。   Further, when the first determination is No and the positions of the subjects obtained from the images that move forward and backward match (the second determination becomes Yes), the positions of the subjects that are obtained from the forward and backward images match. It is determined whether or not the number of times exceeds a threshold value. When the number of times that the positions of the subjects obtained from images that are temporally matched are equal to or greater than the threshold (the third determination is Yes), the coring process is terminated. Accordingly, the fixing of the position of the tracking frame is released, and the detected position of the subject is newly set as the position of the tracking frame. On the other hand, when the number of times the position of the subject obtained from images that are temporally matched is less than the threshold (the third determination is No), the position of the tracking frame is fixed by the coring process.

つまり、被写体が微小移動している場合には、追尾枠の位置を基準としたときの被写体までの距離は小さい。したがって、被写体が微小移動している際に得られる画像に対して設定される追尾枠の位置は固定となる。また、被写体が移動した後、被写体が停止した場合には、追尾枠の位置は、徐々に被写体の位置に近づくように移動していくが、距離D>閾値Dを満足していないと判定される前に設定された位置に固定される。しかしながら、実際の被写体の位置が停止しているのであれば、停止する被写体の位置に追尾枠を設定することが望ましい。したがって、本発明においては、時間的に前後するスルー画像における被写体の位置が一致している回数をカウントし、そのカウントが閾値以上となる場合には被写体が一時的に移動したのではないと判断し、追尾枠の位置を、検出された被写体の位置に設定する。したがって、追尾枠の微小移動を防止しつつ、追尾枠を適切に表示させることが可能となる。 That is, when the subject is moving slightly, the distance to the subject when the tracking frame position is used as a reference is small. Therefore, the position of the tracking frame set for the image obtained when the subject is moving slightly is fixed. Furthermore, after the object is moved, when the subject stops, the position of the tracking frame is moves gradually closer to the position of the subject, does not satisfy the distance D> threshold D 0 and determination It is fixed at the set position before being done. However, if the actual subject position is stopped, it is desirable to set a tracking frame at the position of the subject to be stopped. Therefore, in the present invention, the number of times that the position of the subject in the through image that moves back and forth in time coincides is counted, and if the count is equal to or greater than the threshold, it is determined that the subject has not moved temporarily. Then, the position of the tracking frame is set to the position of the detected subject. Therefore, it is possible to display the tracking frame appropriately while preventing a minute movement of the tracking frame.

また、従来の被写体追尾処理では、被写体がスルー画像の端部から閾値D以下の範囲にあり、また、その被写体が端部に向けて移動した場合、追尾枠は移動する前の位置に固定される。しかしながら、本発明の被写体追尾では、被写体が、被写体がスルー画像の端部から閾値D以下の範囲にあり、また、その被写体が端部に向けて移動した場合には、被写体の位置が一致している回数が所定回数であれば、被写体がその位置にあると判断し、追尾枠をその位置に移動させる。したがって、追尾枠を適切に表示させることが可能となる。 Further, in the conventional object tracking process fixed, the subject is located in the threshold D 0 the range from the end portion of the through-image, also, to a position before the subject when moving toward the end portion, the tracking frame is to be moved Is done. However, in the subject tracking according to the present invention, the subject is, the subject is in the range from the end following threshold D 0 of the through-image, also, when the subject moves toward the end portion, the position of the object is one If the number of times played is a predetermined number, it is determined that the subject is at that position, and the tracking frame is moved to that position. Therefore, it is possible to display the tracking frame appropriately.

本実施形態では、撮影待機状態において得られるスルー画像に対して追尾枠を表示させる場合の実施形態としているが、これに限定される必要はなく、動画像を撮像している過程で追尾処理を行う場合にも適用することが可能となる。
(変形例)
本実施形態では、追尾枠から被写体までの距離Dが閾値D以下となる場合で、かつ被写体の位置が変化しない回数が所定数連続した場合に、検出した被写体の位置を追尾枠の位置として設定している。しかしながら、これに限定する必要はなく、例えば、所定期間において得られるスルー画像において、被写体の位置が変化しない回数が所定回数以上となる場合に、検出した被写体の位置を追尾枠の位置として設定してもよい。
In the present embodiment, the tracking frame is displayed on the through image obtained in the shooting standby state. However, the present invention is not limited to this, and the tracking process is performed in the process of capturing the moving image. It can also be applied to the case where it is performed.
(Modification)
In the present embodiment, when the distance D from the tracking frame to the subject becomes the threshold value D 0 or less, and when the number of times the position of the object does not change is continuous predetermined number, the position of the detected object as a position of the tracking frame It is set. However, the present invention is not limited to this. For example, when the number of times that the position of the subject does not change is equal to or greater than a predetermined number in a through image obtained in a predetermined period, the detected position of the subject is set as the position of the tracking frame. May be.

また、上記実施形態においては、ステップS207において、今回検出した被写体の位置と前回検出した被写体の位置が一致するか否かに基づいて、コアリング処理を継続するか否かを判定する構成について説明したが、これに代えて、ステップS207を、今回検出した被写体の位置と前回検出した被写体の位置の距離が所定値P未満か否かを判断し、当該判断が肯定されたらステップS208へ、当該判断が否定されたらステップS211へ進む構成としてもよい。ここで、所定値Pの値は、閾値Dの値より小さい。このように追尾枠表示の固定を、第1画像から検出される前記被写体の位置と、第2画像から検出される被写体の位置との間の距離に関連する値の所定値との比較結果の大小関係が一致する回数が予め設定された閾値を超過したときに解除する構成とすれば、画像データに含まれるノイズの影響などにより、今回検出した被写体の位置と前回検出した被写体の位置が正確に一致せず、その位置が若干ずれた場合であっても、コアリング処理を行うことができる。なお、今回検出した被写体の位置と前回検出した被写体の位置の距離が所定値P未満か否かを判断する処理は、ステップS207に代えて行うのではなく、ステップS207の判定と合わせて行うことも可能である。 In the above-described embodiment, the configuration for determining whether or not to continue the coring process in step S207 based on whether or not the position of the subject detected this time coincides with the position of the subject detected last time will be described. However, instead of this, in step S207, it is determined whether or not the distance between the position of the subject detected this time and the position of the subject detected last time is less than a predetermined value P. If the determination is affirmed, the process proceeds to step S208. If the determination is negative, the process may proceed to step S211. Here, the value of the predetermined value P is smaller than the threshold value D 0. In this way, the tracking frame display is fixed by comparing a predetermined value of a value related to the distance between the position of the subject detected from the first image and the position of the subject detected from the second image. If it is configured to cancel when the number of times the magnitude relationship matches exceeds a preset threshold, the position of the subject detected this time and the position of the subject detected last time are accurate due to the influence of noise included in the image data. Even if the position is slightly shifted, the coring process can be performed. Note that the process of determining whether the distance between the position of the subject detected this time and the position of the subject detected last time is less than the predetermined value P is not performed in place of step S207, but in conjunction with the determination in step S207. Is also possible.

本実施形態では、撮像装置を例に取り上げて説明しているが、図1に示すデータ処理回路の構成や、図3のフローチャートの処理を実行することが可能な被写体追尾装置であってもよい。また、この他に、図1に示すデータ処理回路の構成や、図3のフローチャートの処理をコンピュータに実行させることが可能な被写体追尾プログラムであってもよい。この被写体追尾プログラムは、例えばメモリカード、ハードディスクなどの光学ディスクや磁気ディスクなどの、コンピュータ読み取り可能な記録媒体に記録されていることが好ましい。   In the present embodiment, the imaging apparatus is described as an example, but the configuration may be a data processing circuit illustrated in FIG. 1 or a subject tracking apparatus capable of executing the processing of the flowchart in FIG. . In addition, a subject tracking program that allows the computer to execute the configuration of the data processing circuit shown in FIG. 1 or the processing of the flowchart of FIG. 3 may be used. The subject tracking program is preferably recorded on a computer-readable recording medium such as an optical disk such as a memory card or a hard disk or a magnetic disk.

10…撮像装置、16…撮像素子、20…データ処理回路、21…表示制御回路、22…モニタ、31…被写体検出部、32…被写体追尾部、33…コアリング処理部、34…フィルタリング処理部   DESCRIPTION OF SYMBOLS 10 ... Imaging device, 16 ... Imaging device, 20 ... Data processing circuit, 21 ... Display control circuit, 22 ... Monitor, 31 ... Subject detection part, 32 ... Subject tracking part, 33 ... Coring processing part, 34 ... Filtering processing part

Claims (7)

連続して取得される画像に含まれる被写体を検出する被写体検出部と、
第1画像の前記被写体の位置に対して、前記第1画像よりも後に取得される第2画像の前記被写体の位置が所定の範囲内で移動し且つ所定条件を満たさない場合に、前記第2画像に対して設定する、前記被写体を追尾していることを示す追尾枠の位置を前記第1画像に対して設定した前記追尾枠の位置に制御し、前記所定の範囲内で移動し且つ前記所定条件を満足した場合に前記追尾枠の位置を前記第2画像の前記被写体の位置に移動させる制御部と、
を備え被写体追尾装置。
A subject detection unit for detecting a subject included in continuously acquired images;
When the position of the subject of the second image acquired after the first image moves within a predetermined range with respect to the position of the subject of the first image and does not satisfy the predetermined condition, the second The position of the tracking frame that is set for the image and indicates that the subject is being tracked is controlled to the position of the tracking frame that is set for the first image, and moves within the predetermined range and A control unit that moves the position of the tracking frame to the position of the subject in the second image when a predetermined condition is satisfied;
Ru includes a subject tracking apparatus.
請求項1に記載の被写体追尾装置において、
前記制御部は、前記第1画像から検出される前記被写体の位置と、前記第2画像から検出される前記被写体の位置とが一致する回数が予め設定された閾値を超過したときに前記所定条件を満足すると判定し、前記第2画像に対して設定する前記追尾枠の位置を、前記第1画像に対して設定した前記追尾枠の位置から前記第2画像の前記被写体の位置に移動させる被写体追尾装置。
The subject tracking device according to claim 1,
When the number of times that the position of the subject detected from the first image matches the position of the subject detected from the second image exceeds a predetermined threshold, the control unit determines that satisfies the subject to move the position of the tracking frame to be set for the second image, the position of the object of the second image from the position of the tracking frame set for the first image Tracking device.
請求項2に記載の被写体追尾装置において、
前記第1画像から検出される前記被写体の位置と、前記第2画像から検出される前記被写体の位置とが一致するか否かを判定する第1の判定部と、
前記第1画像における前記被写体の位置と、前記第2画像における前記被写体の位置とが一致する回数を計数する計数部と、
前記計数部によって計数された回数が前記閾値を超過したか否かを判定する第2の判定部と、
を備える被写体追尾装置。
The subject tracking device according to claim 2,
A first determination unit that determines whether the position of the subject detected from the first image matches the position of the subject detected from the second image;
A counting unit that counts the number of times the position of the subject in the first image matches the position of the subject in the second image;
A second determination unit that determines whether the number of times counted by the counting unit exceeds the threshold;
A subject tracking device comprising:
請求項1に記載の被写体追尾装置において、
前記制御部は、前記第1画像に対する前記追尾枠の位置と前記第2画像から検出される前記被写体の位置との間の距離が予め設定される値を超過したときに前記所定条件を満足すると判定し、前記第2画像に対して設定する前記追尾枠の位置を、前記第1画像に対して設定した前記追尾枠の位置から前記第2画像の前記被写体の位置に移動させる被写体追尾装置。
The subject tracking device according to claim 1,
The control unit satisfies the predetermined condition when a distance between a position of the tracking frame with respect to the first image and a position of the subject detected from the second image exceeds a preset value. determined, the position of the tracking frame to be set for the second image, the object tracking device for moving the position of the object of the second image from the position of the tracking frame set for the first image.
請求項4に記載の被写体追尾装置において、
前記予め設定される値は、連続して取得される画像のフレームレートに応じて変化する被写体追尾装置。
The subject tracking device according to claim 4,
The preset value is a subject tracking device that changes in accordance with a frame rate of continuously acquired images.
請求項1から請求項5のいずれか1項に記載の被写体追尾装置と、
被写体光を取り込むことで、画像を連続して取得することが可能な撮像素子と、
前記画像を表示する表示部と、
前記表示部に前記画像を表示させるとともに、表示させる画像に前記追尾枠を重畳させる表示制御部と、
を備える撮像装置。
A subject tracking device according to any one of claims 1 to 5,
An image sensor capable of continuously acquiring images by capturing subject light; and
A display unit for displaying the image;
A display control unit for displaying the image on the display unit and superimposing the tracking frame on the image to be displayed;
An imaging apparatus comprising:
連続して取得される画像に含まれる被写体を検出する被写体検出工程と、
第1画像の前記被写体の位置に対して、前記第1画像よりも後に取得される第2画像の前記被写体の位置が所定の範囲内で移動し且つ所定条件を満たさない場合に、前記第2画像に対して設定する、前記被写体を追尾していることを示す追尾枠の位置を前記第1画像に対して設定した前記追尾枠の位置に制御し、前記所定の範囲内で移動し且つ前記所定条件を満足した場合に前記追尾枠の位置を前記第2画像の前記被写体の位置に移動させる工程と、
をコンピュータに実行させることが可能な被写体追尾プログラム。
A subject detection step of detecting a subject included in continuously acquired images;
When the position of the subject of the second image acquired after the first image moves within a predetermined range with respect to the position of the subject of the first image and does not satisfy the predetermined condition, the second The position of the tracking frame that is set for the image and indicates that the subject is being tracked is controlled to the position of the tracking frame that is set for the first image, and moves within the predetermined range and Moving the position of the tracking frame to the position of the subject in the second image when a predetermined condition is satisfied;
Subject tracking program that can be executed by a computer.
JP2013204282A 2013-09-30 2013-09-30 Subject tracking device, imaging device, and subject tracking program Active JP6330283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013204282A JP6330283B2 (en) 2013-09-30 2013-09-30 Subject tracking device, imaging device, and subject tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013204282A JP6330283B2 (en) 2013-09-30 2013-09-30 Subject tracking device, imaging device, and subject tracking program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018083362A Division JP2018142981A (en) 2018-04-24 2018-04-24 Subject tracking device, imaging device, and subject tracking program

Publications (2)

Publication Number Publication Date
JP2015069064A JP2015069064A (en) 2015-04-13
JP6330283B2 true JP6330283B2 (en) 2018-05-30

Family

ID=52835758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013204282A Active JP6330283B2 (en) 2013-09-30 2013-09-30 Subject tracking device, imaging device, and subject tracking program

Country Status (1)

Country Link
JP (1) JP6330283B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7113347B2 (en) * 2018-03-14 2022-08-05 パナソニックIpマネジメント株式会社 Mobile terminal, image clipping method, and program
JP7354773B2 (en) 2019-11-01 2023-10-03 株式会社Jvcケンウッド Object detection device, object detection method, and object detection program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338352A (en) * 2004-05-26 2005-12-08 Fujinon Corp Autofocus system
JP2006267220A (en) * 2005-03-22 2006-10-05 Fujinon Corp Auto focus system
JP5409189B2 (en) * 2008-08-29 2014-02-05 キヤノン株式会社 Imaging apparatus and control method thereof
JP5118590B2 (en) * 2008-09-16 2013-01-16 キヤノン株式会社 Subject tracking method and imaging apparatus
JP5455361B2 (en) * 2008-12-22 2014-03-26 富士フイルム株式会社 Auto focus system
JP2010204585A (en) * 2009-03-05 2010-09-16 Canon Inc Imaging apparatus and method of controlling the same
JP5483953B2 (en) * 2009-08-18 2014-05-07 キヤノン株式会社 Focus adjustment device, focus adjustment method and program
JP2011082901A (en) * 2009-10-09 2011-04-21 Canon Inc Image processing apparatus and method, and program
JP5473551B2 (en) * 2009-11-17 2014-04-16 富士フイルム株式会社 Auto focus system

Also Published As

Publication number Publication date
JP2015069064A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
TWI386040B (en) Image pickup apparatus equipped with function of detecting image shaking
US10321058B2 (en) Image pickup apparatus and motion vector detection method
JP4483930B2 (en) Imaging apparatus, control method thereof, and program
JP2006317848A (en) Still picture imaging apparatus
US9955069B2 (en) Control apparatus, storage medium for storing control program, control method, and optical apparatus
US20170163894A1 (en) Control device and imaging apparatus
JP2007279601A (en) Camera
US8593545B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium with switched image capturing mode
US10194085B2 (en) Image pickup apparatus and its control method
US9912867B2 (en) Image processing apparatus, image capturing apparatus and storage medium storing image processing apparatus
US10212348B2 (en) Image processing apparatus, its control method, image capturing apparatus, and storage medium
JP2008289032A (en) Imaging apparatus
EP3480641A1 (en) Camera
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JP2007129310A (en) Imaging apparatus
JP4586707B2 (en) Image processing apparatus, electronic camera, and image processing program
US10200612B2 (en) Image stabilization apparatus and control method thereof, and storage medium
JP2013110754A (en) Camera device, and photographing method and program of the same
JP6330283B2 (en) Subject tracking device, imaging device, and subject tracking program
US11330179B2 (en) Imaging device and control method thereof
US20180146142A1 (en) Imaging apparatus and control method
JP4983479B2 (en) Imaging device
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP5229371B2 (en) Imaging device
JP2018142981A (en) Subject tracking device, imaging device, and subject tracking program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160923

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170323

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180409

R150 Certificate of patent or registration of utility model

Ref document number: 6330283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250