JP2016201636A - Image tracking device and image tracking method - Google Patents

Image tracking device and image tracking method Download PDF

Info

Publication number
JP2016201636A
JP2016201636A JP2015079429A JP2015079429A JP2016201636A JP 2016201636 A JP2016201636 A JP 2016201636A JP 2015079429 A JP2015079429 A JP 2015079429A JP 2015079429 A JP2015079429 A JP 2015079429A JP 2016201636 A JP2016201636 A JP 2016201636A
Authority
JP
Japan
Prior art keywords
image
tracking target
tracking
captured image
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015079429A
Other languages
Japanese (ja)
Other versions
JP6493746B2 (en
Inventor
智彦 古川
Tomohiko Furukawa
智彦 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2015079429A priority Critical patent/JP6493746B2/en
Publication of JP2016201636A publication Critical patent/JP2016201636A/en
Application granted granted Critical
Publication of JP6493746B2 publication Critical patent/JP6493746B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image tracking device and an image tracking method, where incorrect detection of a tracking target is less likely to occur, even if there are many subjects similar to the original tracking target.SOLUTION: An image tracking device is configured to include selection of a plurality of tracking target candidates among captured images (selection means) S12, and setting of a tracking target based on the shooting state among the plurality of tracking target candidates thus selected (setting means) S17, S19, S20. The setting means sets the tracking target based on at least one of whether or not the imaging apparatus including an image tracking device is in quiescent state, and whether the focus length of a taking lens included in the imaging apparatus is on the short focus end side or long focus end side.SELECTED DRAWING: Figure 2

Description

本発明は、撮影画像内の追尾対象を設定する画像追尾装置及び画像追尾方法に関する。   The present invention relates to an image tracking device and an image tracking method for setting a tracking target in a captured image.

撮影画像内の追尾対象を設定することが可能な画像追尾装置が知られている。例えば特許文献1に、この種の画像追尾装置の具体的構成が記載されている。   An image tracking device that can set a tracking target in a captured image is known. For example, Patent Document 1 describes a specific configuration of this type of image tracking apparatus.

特許文献1に記載の画像追尾装置は、撮影画像の中から基準画像(テンプレート画像)との類似度が高い順に複数の追尾対象候補を捕捉し、捕捉された複数の追尾対象候補の中で類似度の最も高いものを追尾対象として設定する。追尾対象候補を複数捕捉することにより、追尾対象を誤って設定した場合でも、本来の追尾対象に容易に復帰させることができる。例えば、同じユニフォームを着た複数のサッカー選手の一人を追尾している際に、選手の向きによって別の選手が追尾対象として設定された場合でも、後のタイミングで本来の追尾対象である選手の向きが変わると、その時点で追尾対象が該選手に復帰する。   The image tracking device described in Patent Literature 1 captures a plurality of tracking target candidates in descending order of similarity to a reference image (template image) from a captured image, and is similar among the captured plurality of tracking target candidates. The one with the highest degree is set as the tracking target. By capturing a plurality of tracking target candidates, it is possible to easily return to the original tracking target even if the tracking target is set in error. For example, when one of a plurality of soccer players wearing the same uniform is being tracked, even if another player is set as the tracking target depending on the player's orientation, the player who is the original tracking target at a later timing When the direction changes, the tracking target returns to the player at that time.

特許第4935380号公報Japanese Patent No. 4935380

特許文献1に記載の画像追尾装置では、類似度の最も高い被写体が追尾対象として設定されている。そのため、上記のサッカー選手の例のように、追尾対象の向き等によってその類似度が低下してしまう場面では、追尾対象の誤設定が避けられない。また、撮影画像内においてテンプレート画像との差分が本来の追尾対象よりも小さい部分が生じる場面でも、追尾対象の誤設定が避けられない。すなわち、特許文献1に記載の画像追尾装置では、本来の追尾対象と類似する被写体が多い場合、これらの被写体の類似度が変動することにより、追尾対象の誤設定が発生しやすいという問題が指摘される。   In the image tracking device described in Patent Document 1, a subject having the highest similarity is set as a tracking target. Therefore, in the scene where the similarity is lowered depending on the direction of the tracking target as in the example of the soccer player, an erroneous setting of the tracking target cannot be avoided. In addition, even in a scene where a difference between the template image and the template image is smaller than the original tracking target in the captured image, an erroneous setting of the tracking target cannot be avoided. That is, in the image tracking device described in Patent Document 1, when there are many subjects similar to the original tracking target, there is a problem that the tracking target is likely to be erroneously set due to the similarity of these subjects changing. Is done.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、本来の追尾対象と類似する被写体が多い場合であっても、追尾対象の誤検出が発生し難い画像追尾装置及び画像追尾方法を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image tracking device that is unlikely to cause erroneous detection of a tracking target even when there are many subjects similar to the original tracking target. And providing an image tracking method.

本発明の一実施形態に係る画像追尾装置は、撮影画像の中から複数の追尾対象候補を選出する選出手段と、選出された複数の追尾対象候補の中から撮影状態に基づいて追尾対象を設定する設定手段とを備える。   An image tracking apparatus according to an embodiment of the present invention sets a tracking target based on a shooting state from selection means for selecting a plurality of tracking target candidates from a captured image, and a plurality of tracking target candidates selected. Setting means.

本発明の一実施形態によれば、撮影状態に基づいて追尾対象が設定されるため、上記のサッカー選手の例のように、追尾対象の向き等によってその類似度が低下する場面であっても、撮影画像内においてテンプレート画像との差分が本来の追尾対象よりも小さい部分が生じる場面であっても、追尾対象の誤設定が避けられる。すなわち、本発明の一実施形態によれば、本来の追尾対象と類似する被写体が多い場合であっても、追尾対象の誤検出が避けられる。   According to an embodiment of the present invention, since the tracking target is set based on the shooting state, even in a scene where the degree of similarity decreases depending on the direction of the tracking target, as in the example of the soccer player. Even in a scene where the difference between the captured image and the template image is smaller than the original tracking target, erroneous setting of the tracking target can be avoided. That is, according to an embodiment of the present invention, even if there are many subjects similar to the original tracking target, erroneous detection of the tracking target can be avoided.

また、本発明の一実施形態において、設定手段は、
(1)画像追尾装置を備える撮影装置が静止状態であるか否か、
(2)撮影装置に備えられる撮影レンズの焦点距離が短焦点端側又は長焦点端側であるか、
の少なくとも1つに基づいて追尾対象を設定する構成としてもよい。
In one embodiment of the present invention, the setting means includes
(1) Whether or not the photographing device including the image tracking device is in a stationary state,
(2) Whether the focal length of the photographing lens provided in the photographing apparatus is the short focal end side or the long focal end side,
The tracking target may be set based on at least one of the above.

また、本発明の一実施形態に係る画像追尾装置は、撮影画像内の被写体の動きを推定する動き推定手段を備える構成としてもよい。この場合、設定手段は、
(A)撮影装置が静止状態である場合、
(B)撮影レンズの焦点距離が短焦点端側である場合、
(C)前回の撮影画像と今回の撮影画像との差分値が第一の閾値未満である場合、
の少なくとも1つが満たされる場合、複数の追尾対象候補の中から動き推定手段による被写体の動きの推定結果に基づいて追尾対象を設定する構成としてもよい。
The image tracking device according to an embodiment of the present invention may include a motion estimation unit that estimates the motion of a subject in a captured image. In this case, the setting means
(A) When the imaging device is stationary,
(B) When the focal length of the taking lens is on the short focal end side,
(C) When the difference value between the previous captured image and the current captured image is less than the first threshold value,
When at least one of the above is satisfied, the tracking target may be set based on the estimation result of the motion of the subject by the motion estimation means from the plurality of tracking target candidates.

また、本発明の一実施形態において、設定手段は、前回の撮影画像と今回の撮影画像とを比較し、撮影画像全体の差分値が第二の閾値以上であり且つ該撮影画像内の所定領域における差分値が第三の閾値未満である場合に、該所定領域内に写る追尾対象候補を追尾対象として設定する構成としてもよい。   In one embodiment of the present invention, the setting unit compares the previous captured image with the current captured image, the difference value of the entire captured image is greater than or equal to a second threshold value, and a predetermined area in the captured image When the difference value at is less than the third threshold, a tracking target candidate that appears in the predetermined area may be set as a tracking target.

また、本発明の一実施形態に係る画像追尾装置は、追尾対象を表す基準画像を記憶する記憶手段と、記憶された基準画像と撮影画像内の各被写体の画像との類似度を演算する類似度演算手段とを備える構成としてもよい。この場合、設定手段は、撮影画像全体の差分値が第二の閾値以上であり且つ該撮影画像内の所定領域における差分値が第三の閾値以上である場合に、類似度演算手段による演算結果に基づいて類似度が最も高い被写体を追尾対象として設定する構成としてもよい。   The image tracking device according to an embodiment of the present invention includes a storage unit that stores a reference image representing a tracking target, and a similarity that calculates a similarity between the stored reference image and each subject image in the captured image. It is good also as a structure provided with a degree calculation means. In this case, when the difference value of the entire captured image is equal to or greater than the second threshold value and the difference value in the predetermined area in the captured image is equal to or greater than the third threshold value, the setting unit calculates the result of the similarity calculation unit The subject having the highest similarity may be set as the tracking target based on the above.

また、本発明の一実施形態に係る画像追尾方法は、撮影画像の中から複数の追尾対象候補を選出するステップと、選出された複数の追尾対象候補の中から所定の撮影状態に基づいて追尾対象を設定するステップとを含む方法である。   The image tracking method according to an embodiment of the present invention includes a step of selecting a plurality of tracking target candidates from a captured image, and tracking based on a predetermined shooting state from the selected plurality of tracking target candidates. And setting a target.

本発明の一実施形態によれば、本来の追尾対象と類似する被写体が多い場合であっても、追尾対象の誤検出が発生し難い画像追尾装置及び画像追尾方法が提供される。   According to an embodiment of the present invention, an image tracking device and an image tracking method are provided that are unlikely to cause erroneous detection of a tracking target even when there are many subjects similar to the original tracking target.

本発明の一実施形態に係る撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態において撮影装置に備えられるシステムコントローラにより実行される画像追尾処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image tracking process performed by the system controller with which an imaging device is provided in one Embodiment of this invention. 本発明の一実施形態において広角撮影が行われたときに撮影装置のLCDの表示画面に表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the display screen of LCD of an imaging device when wide-angle imaging | photography is performed in one Embodiment of this invention. 本発明の一実施形態において望遠撮影が行われたときに撮影装置のLCDの表示画面に表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the display screen of LCD of an imaging device when telephoto shooting is performed in one Embodiment of this invention.

以下、本発明の一実施形態に係る撮影装置について図面を参照しながら説明する。以下においては、本発明の一実施形態として、デジタル一眼レフカメラについて説明する。なお、撮影装置は、デジタル一眼レフカメラに限らず、例えば、ミラーレス一眼カメラ、コンパクトデジタルカメラ、ビデオカメラ、カムコーダ、タブレット端末、PHS(Personal Handy phone System)、スマートフォン、フィーチャフォン、携帯ゲーム機など、撮影機能を有する別の形態の装置に置き換えてもよい。   An imaging apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In the following, a digital single lens reflex camera will be described as an embodiment of the present invention. Note that the photographing apparatus is not limited to a digital single lens reflex camera, but includes, for example, a mirrorless single lens camera, a compact digital camera, a video camera, a camcorder, a tablet terminal, a PHS (Personal Handy phone System), a smartphone, a feature phone, a portable game machine, and the like. The apparatus may be replaced with another type of apparatus having a photographing function.

[撮影装置1の構成]
図1は、本実施形態の撮影装置1の構成を示すブロック図である。図1に示されるように、撮影装置1は、システムコントローラ100、操作部102、駆動回路104、撮影レンズ106、絞り108、シャッタ110、固体撮像素子112、信号処理回路114、画像処理エンジン116、バッファメモリ118、カード用インタフェース120、LCD(Liquid Crystal Display)制御回路122、LCD124、ROM(Read Only Memory)126、ジャイロセンサ128、加速度センサ130、地磁気センサ132及びGPS(Global Positioning System)センサ134を備えている。なお、撮影レンズ106は、複数枚のレンズからなるズームレンズであるが、図1においては便宜上一枚のレンズとして示す。
[Configuration of the photographing apparatus 1]
FIG. 1 is a block diagram showing a configuration of the photographing apparatus 1 of the present embodiment. As shown in FIG. 1, the photographing apparatus 1 includes a system controller 100, an operation unit 102, a drive circuit 104, a photographing lens 106, a diaphragm 108, a shutter 110, a solid-state image sensor 112, a signal processing circuit 114, an image processing engine 116, Buffer memory 118, card interface 120, LCD (Liquid Crystal Display) control circuit 122, LCD 124, ROM (Read Only Memory) 126, gyro sensor 128, acceleration sensor 130, geomagnetic sensor 132, and GPS (Global Positioning System) sensor 134 I have. Note that the photographing lens 106 is a zoom lens composed of a plurality of lenses, but is shown as a single lens in FIG. 1 for convenience.

操作部102には、電源スイッチやレリーズスイッチ、撮影モードスイッチなど、ユーザが撮影装置1を操作するために必要な各種スイッチが含まれる。ユーザにより電源スイッチが操作されると、図示省略されたバッテリから撮影装置1の各種回路に電源ラインを通じて電源供給が行われる。   The operation unit 102 includes various switches necessary for the user to operate the photographing apparatus 1, such as a power switch, a release switch, and a photographing mode switch. When the user operates the power switch, power is supplied from the battery (not shown) to the various circuits of the photographing apparatus 1 through the power line.

システムコントローラ100は、CPU(Central Processing Unit)及びDSP(Digital Signal Processor)を含む。システムコントローラ100は電源供給後、ROM126にアクセスして制御プログラムを読み出してワークエリア(不図示)にロードし、ロードされた制御プログラムを実行することにより、撮影装置1全体の制御を行う。   The system controller 100 includes a CPU (Central Processing Unit) and a DSP (Digital Signal Processor). After supplying power, the system controller 100 accesses the ROM 126, reads out a control program, loads it into a work area (not shown), and executes the loaded control program to control the entire photographing apparatus 1.

レリーズスイッチが操作されると、システムコントローラ100は、例えば、固体撮像素子112により撮像された画像に基づいて計算された測光値や、撮影装置1に内蔵された露出計(不図示)で測定された測光値に基づき適正露出が得られるように、駆動回路104を介して絞り108及びシャッタ110を駆動制御する。より詳細には、絞り108及びシャッタ110の駆動制御は、プログラムAE(Automatic Exposure)、シャッタ優先AE、絞り優先AEなど、撮影モードスイッチにより指定されるAE機能に基づいて行われる。また、システムコントローラ100はAE制御と併せてAF(Autofocus)制御を行う。AF制御には、アクティブ方式、位相差検出方式、コントラスト検出方式等が適用される。また、AFモードには、中央一点の測距エリアを用いた中央一点測距モード、複数の測距エリアを用いた多点測距モード等がある。システムコントローラ100は、AF結果に基づいて駆動回路104を介して撮影レンズ106を駆動制御し、撮影レンズ106の焦点を調整する。なお、この種のAE及びAFの構成及び制御については周知であるため、ここでの詳細な説明は省略する。   When the release switch is operated, the system controller 100 is measured by, for example, a photometric value calculated based on an image captured by the solid-state image sensor 112 or an exposure meter (not shown) built in the photographing apparatus 1. The diaphragm 108 and the shutter 110 are driven and controlled via the drive circuit 104 so that proper exposure can be obtained based on the photometric values. More specifically, drive control of the aperture 108 and the shutter 110 is performed based on an AE function designated by a shooting mode switch such as a program AE (Automatic Exposure), shutter priority AE, aperture priority AE, and the like. Further, the system controller 100 performs AF (Autofocus) control together with AE control. An active method, a phase difference detection method, a contrast detection method, or the like is applied to the AF control. The AF mode includes a central single-point ranging mode using a single central ranging area, a multi-point ranging mode using a plurality of ranging areas, and the like. The system controller 100 controls driving of the photographing lens 106 via the driving circuit 104 based on the AF result, and adjusts the focus of the photographing lens 106. Since the configuration and control of this type of AE and AF are well known, detailed description thereof is omitted here.

被写体からの光束は、撮影レンズ106、絞り108、シャッタ110を通過して固体撮像素子112の受光面にて受光される。固体撮像素子112は、ベイヤ型画素配置を有する単板式カラーCCD(Charge Coupled Device)イメージセンサである。固体撮像素子112は、受光面上の各画素で結像した光学像を光量に応じた電荷として蓄積して、R(Red)、G(Green)、B(Blue)の画像信号を生成して出力する。なお、固体撮像素子112は、CCDイメージセンサに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやその他の種類の撮像装置に置き換えられてもよい。固体撮像素子112はまた、補色系フィルタを搭載したものであってもよい。   The light flux from the subject passes through the photographing lens 106, the diaphragm 108, and the shutter 110 and is received by the light receiving surface of the solid-state image sensor 112. The solid-state imaging device 112 is a single-plate color CCD (Charge Coupled Device) image sensor having a Bayer pixel arrangement. The solid-state imaging device 112 accumulates an optical image formed by each pixel on the light receiving surface as a charge corresponding to the amount of light, and generates R (Red), G (Green), and B (Blue) image signals. Output. The solid-state image sensor 112 is not limited to a CCD image sensor, and may be replaced with a CMOS (Complementary Metal Oxide Semiconductor) image sensor or other types of imaging devices. The solid-state image sensor 112 may also have a complementary color filter mounted thereon.

信号処理回路114は、固体撮像素子112より入力される画像信号に対してクランプ、デモザイク等の所定の信号処理を施して、画像処理エンジン116に出力する。画像処理エンジン116は、信号処理回路114より入力される画像信号に対してマトリクス演算、Y/C分離、ホワイトバランス等の所定の信号処理を施して輝度信号Y、色差信号Cb、Crを生成し、JPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮する。バッファメモリ118は、画像処理エンジン116による処理の実行時、処理データの一時的な保存場所として用いられる。また、撮影画像の保存形式は、JPEG形式に限らず、最小限の画像処理(例えば黒レベルの補正等)しか施されないRAW形式であってもよい。   The signal processing circuit 114 performs predetermined signal processing such as clamping and demosaicing on the image signal input from the solid-state imaging device 112 and outputs the processed signal to the image processing engine 116. The image processing engine 116 performs predetermined signal processing such as matrix operation, Y / C separation, and white balance on the image signal input from the signal processing circuit 114 to generate a luminance signal Y and color difference signals Cb and Cr. , And compressed in a predetermined format such as JPEG (Joint Photographic Experts Group). The buffer memory 118 is used as a temporary storage location for processing data when the image processing engine 116 executes processing. Further, the storage format of the captured image is not limited to the JPEG format, and may be a RAW format in which only minimal image processing (for example, black level correction) is performed.

カード用インタフェース120のカードスロットには、メモリカード200が着脱可能に差し込まれている。   A memory card 200 is detachably inserted into a card slot of the card interface 120.

画像処理エンジン116は、カード用インタフェース120を介してメモリカード200と通信可能である。画像処理エンジン116は、生成された圧縮画像信号(撮影画像データ)をメモリカード200(又は撮影装置1に備えられる不図示の内蔵メモリ)に保存する。   The image processing engine 116 can communicate with the memory card 200 via the card interface 120. The image processing engine 116 stores the generated compressed image signal (captured image data) in the memory card 200 (or a built-in memory (not shown) provided in the image capturing apparatus 1).

また、画像処理エンジン116は、生成された輝度信号Y、色差信号Cb、Crをフレームメモリ(不図示)にフレーム単位でバッファリングする。画像処理エンジン116は、バッファリングされた信号を所定のタイミングで各フレームメモリから掃き出して所定のフォーマットのビデオ信号に変換し、LCD制御回路122に出力する。LCD制御回路122は、画像処理エンジン116より入力される画像信号を基に液晶を変調制御する。これにより、被写体の撮影画像がLCD124の表示画面に表示される。ユーザは、AE制御及びAF制御に基づいて適正な露出及びピントで撮影されたリアルタイムのスルー画(ライブビュー)を、LCD124の表示画面を通じて視認することができる。   Further, the image processing engine 116 buffers the generated luminance signal Y and color difference signals Cb and Cr in a frame memory (not shown) in units of frames. The image processing engine 116 sweeps the buffered signal from each frame memory at a predetermined timing, converts it into a video signal of a predetermined format, and outputs it to the LCD control circuit 122. The LCD control circuit 122 modulates and controls the liquid crystal based on the image signal input from the image processing engine 116. Thereby, the photographed image of the subject is displayed on the display screen of the LCD 124. The user can view a real-time through image (live view) photographed with appropriate exposure and focus based on the AE control and AF control through the display screen of the LCD 124.

画像処理エンジン116は、ユーザにより撮影画像の再生操作が行われると、操作により指定された撮影画像データをメモリカード200又は内蔵メモリより読み出して所定のフォーマットの画像信号に変換し、LCD制御回路122に出力する。LCD制御回路122が画像処理エンジン116より入力される画像信号を基に液晶を変調制御することで、被写体の撮影画像がLCD124の表示画面に表示される。   When the user performs a reproduction operation of the photographed image, the image processing engine 116 reads the photographed image data designated by the operation from the memory card 200 or the built-in memory, converts it into an image signal of a predetermined format, and the LCD control circuit 122. Output to. The LCD control circuit 122 performs modulation control on the liquid crystal based on the image signal input from the image processing engine 116, so that a captured image of the subject is displayed on the display screen of the LCD 124.

[画像追尾処理]
図2は、本発明の一実施形態においてシステムコントローラ100により実行される画像追尾処理のフローチャートを示す。図2の画像追尾処理は、例えば追尾対象の画像(以下、説明の便宜上「追尾対象テンプレート画像」と記す。)が設定された時点で初回の実行が開始される。図2の画像追尾処理の2回目以降の実行は、撮影画像が更新される毎(新たなフレーム画像が撮影される毎)に開始される。
[Image tracking processing]
FIG. 2 shows a flowchart of image tracking processing executed by the system controller 100 in an embodiment of the present invention. The image tracking process in FIG. 2 is started for the first time when, for example, an image to be tracked (hereinafter referred to as “tracking target template image” for convenience of description) is set. The second and subsequent executions of the image tracking process in FIG. 2 are started each time a captured image is updated (a new frame image is captured).

例示的には、ユーザ操作により撮影画像内で指定された指定枠内に収まる被写体の画像や、撮影装置1側で自動的に設定された被写体の画像、バッファメモリ118やROM126等の記憶領域に予め記憶された複数の規定画像の中からユーザ操作により指定された画像が追尾対象テンプレート画像として設定される。設定された追尾対象テンプレート画像は、図2の画像追尾処理の実行期間中、バッファメモリ118等の記憶領域に一時的に記憶される。図2の画像追尾処理が実行されると、追尾対象に設定された被写体にピントが合うようにAF制御が行われる。   Illustratively, an image of a subject that falls within a designated frame designated in the photographed image by a user operation, a subject image automatically set on the photographing device 1 side, a storage area such as the buffer memory 118 or the ROM 126. An image designated by a user operation from among a plurality of pre-stored prescribed images is set as a tracking target template image. The set tracking target template image is temporarily stored in a storage area such as the buffer memory 118 during the image tracking process shown in FIG. When the image tracking process of FIG. 2 is executed, AF control is performed so that the subject set as the tracking target is in focus.

[図2のS11(追尾対象テンプレート画像の種別検出)]
本実施形態では、多数の種別判定用画像(人物や動物、植物、乗り物、建物等の画像)がROM126等の記憶領域に予め記憶されている。また、ユーザ操作に応じて撮影画像内より抽出された被写体の画像が種別判定用画像としてバッファメモリ118等の記憶領域に追加的に記憶される場合もある。
[S11 in FIG. 2 (type detection of tracking target template image)]
In this embodiment, a large number of type determination images (images of people, animals, plants, vehicles, buildings, etc.) are stored in advance in a storage area such as the ROM 126. In some cases, an image of a subject extracted from a captured image in response to a user operation is additionally stored in a storage area such as the buffer memory 118 as a type determination image.

本処理ステップS11では、追尾対象テンプレート画像とバッファメモリ118やROM126等の記憶領域に記憶された種別判定用画像とのパターンマッチング処理が行われ、追尾対象テンプレート画像との差分値が最も少ない種別判定用画像の種別(人物や動物、植物、乗り物、建物等)が追尾対象テンプレート画像の種別として検出される。なお、画像の種別を検出する技術は周知技術であり、例えば、特開2010−81246号公報や特開2011−211695号公報にて参照することができる。また、追尾対象テンプレート画像の種別は、追尾対象テンプレート画像が変更されない限り変わることが無い。そのため、本処理ステップS11の実行は、図2の画像追尾処理の初回実行時(追尾対象テンプレート画像の設定又は設定変更直後の実行時)に限られており、該画像追尾処理の2回目以降の実行時には省略される。   In this processing step S11, pattern matching processing is performed between the tracking target template image and the type determination image stored in the storage area such as the buffer memory 118 or the ROM 126, and the type determination with the smallest difference value from the tracking target template image is performed. The type of image for use (person, animal, plant, vehicle, building, etc.) is detected as the type of tracking target template image. The technique for detecting the type of image is a well-known technique, and can be referred to, for example, in Japanese Unexamined Patent Application Publication Nos. 2010-81246 and 2011-212695. Further, the type of the tracking target template image does not change unless the tracking target template image is changed. Therefore, the execution of this processing step S11 is limited to the first execution of the image tracking process of FIG. 2 (when the tracking target template image is set or executed immediately after the setting change), and the second and subsequent times of the image tracking process are performed. Omitted at run time.

[図2のS12(追尾対象候補の選出)]
本処理ステップS12では、撮影画像の中から複数の追尾対象候補が選出される。例示的には、撮影画像の中からパターンマッチング処理により追尾対象テンプレート画像と類似度の高い画像領域が複数検索され、検索された各画像領域に写る被写体が追尾対象候補として選出される。本実施形態では、追尾対象テンプレート画像との差分値が少ない(所定の閾値未満の)画像領域が類似度の高い画像領域として検索される。以下、説明の便宜上、本処理ステップS12で用いられる閾値を「候補選出用閾値」と記す。
[S12 in FIG. 2 (Selection of Tracking Target Candidate)]
In this processing step S12, a plurality of tracking target candidates are selected from the captured image. Illustratively, a plurality of image areas having a high similarity to the tracking target template image are searched from the captured images by pattern matching processing, and subjects appearing in the searched image areas are selected as tracking target candidates. In the present embodiment, an image area having a small difference value with the tracking target template image (less than a predetermined threshold) is searched as an image area having a high similarity. Hereinafter, for convenience of explanation, the threshold used in this processing step S12 is referred to as “candidate selection threshold”.

候補選出用閾値は、追尾対象テンプレート画像との形状の類似度に関する閾値及び追尾対象テンプレート画像との色彩の類似度に関する閾値(色彩閾値)を含む。以下、形状の類似度に関する閾値を「形状閾値」と記し、色彩の類似度に関する閾値を「色彩閾値」と記す。形状閾値及び色彩閾値は、処理ステップS11(追尾対象テンプレート画像の種別検出)にて検出された追尾対象テンプレート画像の種別に応じて設定される。下記に、形状閾値及び色彩閾値の設定例を挙げる。   The threshold for candidate selection includes a threshold related to the similarity of shape to the tracking target template image and a threshold related to the similarity of color to the tracking target template image (color threshold). Hereinafter, the threshold relating to the similarity of shape is referred to as “shape threshold”, and the threshold relating to the similarity of color is referred to as “color threshold”. The shape threshold and the color threshold are set according to the type of the tracking target template image detected in processing step S11 (detection of the type of tracking target template image). Examples of setting the shape threshold and the color threshold are given below.

・設定例1(追尾対象テンプレート画像の種別が人物)
人物は、身体の向きが変わった時等に撮影装置1側から見たときの形が変わりやすい。一方、肌の色等は照明によって変わるものの、形と比べると、変わりやすくはない。そこで、本設定例1では、形状閾値が緩めの値に設定され、色彩閾値が厳しめの値に設定される。
Setting example 1 (type of tracking target template image is person)
A person is likely to change its shape when viewed from the photographing apparatus 1 side when the direction of the body changes. On the other hand, although the color of skin changes with illumination, it is not easy to change compared to the shape. Therefore, in this setting example 1, the shape threshold is set to a moderate value, and the color threshold is set to a strict value.

・設定例2(追尾対象テンプレート画像の種別が動物)
動物は、人物と比べて多種多様である。そこで、本設定例2では、形状閾値が通常の値(緩めの値と厳しめの値の中間値)に設定され、色彩閾値も通常の値に設定される。
・ Setting example 2 (Tracking target template image type is animal)
Animals are more diverse than people. Therefore, in this setting example 2, the shape threshold value is set to a normal value (intermediate value between a loose value and a strict value), and the color threshold value is also set to a normal value.

・設定例3(追尾対象テンプレート画像の種別が車)
車等の人工物は、他の種別と比べると、撮影状況に応じた形状及び色彩の変化が少ない部類に入る。そこで、本設定例3では、形状閾値が通常の値に設定され、色彩閾値が厳しめの値に設定される。
・ Setting example 3 (Tracking target template image type is car)
Artifacts such as cars fall into a category with less change in shape and color depending on the shooting situation compared to other types. Therefore, in setting example 3, the shape threshold is set to a normal value, and the color threshold is set to a strict value.

・設定例4(追尾対象テンプレート画像の種別が花)
本設定例4は、花がマクロ撮影されている場合の設定例である。マクロ撮影時に微妙に揺れる被写体については判定を厳しくしたいため、本設定例4では、形状閾値が厳しめの値に設定され、色彩閾値も厳しめの値に設定される。
・ Setting example 4 (Tracking target template image type is flower)
This setting example 4 is a setting example when a flower is macro-photographed. In this setting example 4, the shape threshold value is set to a strict value and the color threshold value is also set to a strict value in order to make a strict determination on a subject that slightly shakes during macro shooting.

[図2のS13(撮影状態の情報の取得)]
本処理ステップS13では、現在の撮影状態の情報が取得される。本実施形態では、現在の撮影状態の情報として、例えば、
(1)撮影装置1の状態(静止状態又は非静止状態)
(2)撮影レンズ106の焦点距離(短焦点端側の焦点距離又は長焦点端側の焦点距離)
が取得される。
[S13 in FIG. 2 (Acquisition of Shooting State Information)]
In this processing step S13, information on the current shooting state is acquired. In the present embodiment, as the current shooting state information, for example,
(1) State of the photographing apparatus 1 (stationary state or non-stationary state)
(2) Focal length of the taking lens 106 (focal length on the short focal end side or focal length on the long focal end side)
Is acquired.

・撮影状態の情報(1)の取得例
本実施形態では、図2の画像追尾処理とは別個に、撮影装置1の筺体が静止状態であるか否かを判定する判定処理が定期的に実行されている。本判定処理では、例示的には、ジャイロセンサ128より入力される振れ検出信号のうち一定周波数以上の信号成分の振幅が一定期間継続してある閾値以内に収まる場合に静止状態であると判定され、該閾値以内に収まらない場合に非静止状態であると判定される。本処理ステップS13では、本判定処理の判定結果に応じた情報(静止状態であるか非静止状態であるか)が取得される。撮影装置1の筺体の静止状態としては、典型的には、撮影装置1が三脚に固定された状態が挙げられる。
Acquisition example of shooting state information (1) In the present embodiment, separately from the image tracking process of FIG. 2, a determination process for determining whether or not the housing of the shooting apparatus 1 is in a stationary state is periodically executed. Has been. In this determination process, for example, when the amplitude of a signal component having a frequency equal to or higher than a certain frequency among the vibration detection signals input from the gyro sensor 128 is continuously within a certain threshold for a certain period of time, it is determined to be in a stationary state. If it does not fall within the threshold value, it is determined that it is in a non-stationary state. In this processing step S13, information (whether it is a stationary state or a non-stationary state) according to the determination result of this determination processing is acquired. Typically, the stationary state of the housing of the photographing apparatus 1 includes a state where the photographing apparatus 1 is fixed to a tripod.

撮影装置1の静止状態は、ジャイロセンサ128に代えて、加速度センサ130、地磁気センサ132、GPSセンサ134など、他のセンサより出力される情報に基づいて判定されてもよい。また、判定精度を向上させるため、例えばセンサ・フュージョン技術を適用し、これらのセンサより出力される情報が複合的に用いられるようにしてもよい。   The stationary state of the imaging device 1 may be determined based on information output from other sensors such as the acceleration sensor 130, the geomagnetic sensor 132, and the GPS sensor 134 instead of the gyro sensor 128. In order to improve the determination accuracy, for example, sensor fusion technology may be applied so that information output from these sensors may be used in combination.

・撮影状態の情報(2)の取得例
撮影レンズ106と通信することにより、撮影レンズ106の焦点距離(画角)の情報が取得される。本処理ステップS13では、短焦点端(広角端)と長焦点端(望遠端)との中間の焦点距離を中焦点距離と定義した場合に、中焦点距離よりも短い焦点距離が「短焦点端側」の焦点距離の情報として取得され、中焦点距離以上の焦点距離が「長焦点端側」の焦点距離の情報として取得される。
-Acquisition example of shooting state information (2) By communicating with the shooting lens 106, information on the focal length (angle of view) of the shooting lens 106 is acquired. In this processing step S13, when an intermediate focal length between the short focal end (wide angle end) and the long focal end (telephoto end) is defined as the intermediate focal length, a focal length shorter than the intermediate focal length is expressed as “short focal end. Is obtained as information on the focal length of the “side”, and a focal length greater than or equal to the middle focal length is obtained as information on the focal length of the “long focal end”.

[図2のS14(撮影装置1の状態判定)]
本処理ステップS14では、処理ステップS13(撮影状態の情報の取得)にて取得された情報に基づいて撮影装置1が静止状態であるか否かが判定される。
[S14 in FIG. 2 (Determination of the state of the photographing apparatus 1)]
In this processing step S14, it is determined whether or not the photographing apparatus 1 is in a stationary state based on the information acquired in processing step S13 (acquisition of photographing state information).

[図2のS15(撮影レンズ106の焦点距離判定)]
本処理ステップS15は、処理ステップS14(撮影装置1の状態判定)にて撮影装置1が非静止状態であると判定された場合(S14:NO)に実行される。本処理ステップS15では、処理ステップS13(撮影状態の情報の取得)にて取得された情報に基づいて撮影レンズ106の焦点距離が短焦点端側又は長焦点端側であるかが判定される。
[S15 in FIG. 2 (Focal Length Determination of Shooting Lens 106)]
This process step S15 is executed when it is determined in process step S14 (state determination of the image capturing apparatus 1) that the image capturing apparatus 1 is in a non-stationary state (S14: NO). In this processing step S15, it is determined whether the focal length of the photographing lens 106 is the short focal end side or the long focal end side based on the information acquired in the processing step S13 (acquisition of shooting state information).

[図2のS16(撮影画像の変化判定)]
本処理ステップS16は、処理ステップS15(撮影レンズ106の焦点距離判定)にて撮影レンズ106の焦点距離が長焦点端側(望遠端側)であると判定された場合(S15:長焦点端側)に実行される。本処理ステップS16では、前フレーム(現フレームの1つ前のフレーム)の撮影画像と現フレームの撮影画像との差分値が所定値未満(例えば対応画素(同一アドレスの画素)間で所定のレベル差以上となるものの数が所定数未満)であるか否か、言い換えると、前フレームと現フレームとで撮影画像の変化が全体的に少ないか否かが判定される。
[S16 in FIG. 2 (Determination of Change in Captured Image)]
This processing step S16 is performed when it is determined in processing step S15 (focal length determination of the photographing lens 106) that the focal length of the photographing lens 106 is on the long focal end side (telephoto end side) (S15: long focal end side). ) Is executed. In this processing step S16, the difference value between the captured image of the previous frame (the frame immediately before the current frame) and the captured image of the current frame is less than a predetermined value (for example, a predetermined level between corresponding pixels (pixels having the same address)). It is determined whether or not the number of objects that are greater than or equal to the difference is less than a predetermined number), in other words, whether or not the overall change in the captured image is small between the previous frame and the current frame.

[図2のS17(追尾対象の設定)]
本処理ステップS17は、
(A)処理ステップS14(撮影装置1の状態判定)にて撮影装置1が静止状態であると判定された場合(S14:YES)、
(B)処理ステップS15(撮影レンズ106の焦点距離判定)にて撮影レンズ106の焦点距離が短焦点端側(広角端側)であると判定された場合(S15:短焦点端側)、
(C)処理ステップS16(撮影画像の変化判定)にて前フレームの撮影画像と現フレームの撮影画像との差分値が所定値未満であると判定された場合(S16:YES)、
の何れかの場合に実行される。
[S17 in FIG. 2 (Tracking Target Setting)]
This processing step S17
(A) When it is determined in the processing step S14 (state determination of the image capturing device 1) that the image capturing device 1 is in a stationary state (S14: YES),
(B) When it is determined in processing step S15 (focal length determination of the photographing lens 106) that the focal length of the photographing lens 106 is on the short focal end side (wide angle end side) (S15: short focal end side).
(C) When it is determined that the difference value between the captured image of the previous frame and the captured image of the current frame is less than a predetermined value in the processing step S16 (determination of captured image change) (S16: YES)
It is executed in either case.

撮影装置1が静止状態である場合(上記(A))は、撮影範囲が固定されている。そのため、基本的に、背景の変化が少なく、前フレームと現フレームとで撮影画像の変化が全体的に少ない。また、撮影レンズ106の焦点距離が短焦点端側(広角端側)にある場合(以下、説明の便宜上、「広角撮影時」と記す。上記(B))は、撮影装置1が殆ど動かされない又はゆっくり動かされる場合が多い。この場合、極僅かな時間(本実施形態では1フレーム期間)で考えると、撮影範囲が実質的に固定されていると言っても差し支えない。そのため、この場合も、基本的に、背景の変化が少なく、前フレームと現フレームとで撮影画像の変化が全体的に少ない。また、前フレームと現フレームとで撮影画像の差分値が所定値未満の場合(上記(C))も同様に、極僅かな時間で考えると、撮影範囲が実質的に固定されており、撮影範囲の変化が少なく、背景の変化が少ないといえる。   When the photographing apparatus 1 is in a stationary state (above (A)), the photographing range is fixed. Therefore, basically, the change in the background is small, and the change in the captured image is generally small between the previous frame and the current frame. Further, when the focal length of the photographing lens 106 is on the short focal end side (wide-angle end side) (hereinafter, for convenience of explanation, it is described as “at the time of wide-angle photographing”. (B) above), the photographing apparatus 1 is hardly moved. Or it is often moved slowly. In this case, considering the extremely short time (one frame period in the present embodiment), it can be said that the photographing range is substantially fixed. Therefore, in this case as well, there is basically little change in the background, and there is generally little change in the captured image between the previous frame and the current frame. Similarly, when the difference value between the previous frame and the current frame is less than a predetermined value ((C) above), the shooting range is substantially fixed when considered in a very short time. It can be said that there is little change in the range and little change in the background.

すなわち、本処理ステップS17は、撮影範囲が実質的に固定されている場合に実行される。このように、撮影範囲が実質的に固定されている場合は、撮影装置1の動きを考慮する必要がないため、バッファメモリ118等の記憶領域に記憶された履歴(過去の撮影画像)から追尾対象の動きを推定しやすい。そこで、本処理ステップS17では、前フレームで追尾していた追尾対象の動き(動きベクトル)が推定される。追尾対象の動きベクトルは、例えば、オプティカルフロー(勾配法、ブロックマッチング法等)や撮影画像の周波数解析など、周知の推定技術を用いて推定される。   That is, this processing step S17 is executed when the photographing range is substantially fixed. In this way, when the shooting range is substantially fixed, it is not necessary to consider the movement of the shooting device 1, and therefore tracking is performed from the history (past shot images) stored in the storage area such as the buffer memory 118. It is easy to estimate the movement of the object. Therefore, in this processing step S17, the motion (motion vector) of the tracking target tracked in the previous frame is estimated. The tracking target motion vector is estimated by using a known estimation technique such as optical flow (gradient method, block matching method, etc.) or frequency analysis of a captured image.

本処理ステップS17では、推定された動きベクトルに基づいて現フレームでの追尾対象の位置が推定され、推定された位置に最も近い追尾対象候補が処理ステップS12(追尾対象候補の選出)にて選出された複数の追尾対象候補の中から選択され、選択された追尾対象候補が追尾対象として設定される。なお、図2の画像追尾処理の初回実行時は、履歴が存在しない。そのため、例えば、処理ステップS12(追尾対象候補の選出)にて選出された複数の追尾対象候補の中から追尾対象テンプレート画像との類似度が最も高い追尾対象候補が追尾対象として設定されたり、撮影範囲の中央領域に写る追尾対象候補が追尾対象として設定されたりする。本処理ステップS17において追尾対象が設定されると、図2の画像追尾処理が終了する。   In this processing step S17, the position of the tracking target in the current frame is estimated based on the estimated motion vector, and the tracking target candidate closest to the estimated position is selected in processing step S12 (selection of tracking target candidate). The selected tracking target candidates are selected from the plurality of tracking target candidates, and the selected tracking target candidates are set as tracking targets. Note that there is no history when the image tracking process in FIG. 2 is executed for the first time. Therefore, for example, a tracking target candidate having the highest similarity to the tracking target template image is set as a tracking target from among a plurality of tracking target candidates selected in processing step S12 (selection of tracking target candidate), or shooting is performed. A tracking target candidate that appears in the center area of the range is set as a tracking target. When the tracking target is set in this processing step S17, the image tracking process in FIG.

[図2のS18(所定領域の変化判定)]
本処理ステップS18は、処理ステップS16(撮影画像の変化判定)にて前フレームの撮影画像と現フレームの撮影画像との差分値が所定値以上であると判定された場合(S16:NO)に、言い換えると、前フレームと現フレームとで撮影画像の変化が全体的に多い場合に実行される。本処理ステップS18では、撮影範囲内の所定領域(本実施形態では中央領域)の画像について、前フレームと現フレームとの差分値が所定値(上記とは別の値)未満であるか否かが判定される。
[S18 in FIG. 2 (determination of change in predetermined area)]
This process step S18 is performed when it is determined in process step S16 (determination of captured image change) that the difference value between the captured image of the previous frame and the captured image of the current frame is greater than or equal to a predetermined value (S16: NO). In other words, it is executed when there is a large change in the captured image as a whole between the previous frame and the current frame. In this processing step S18, whether or not the difference value between the previous frame and the current frame is less than a predetermined value (a value different from the above) for an image in a predetermined area (the central area in the present embodiment) within the shooting range. Is determined.

[図2のS19(追尾対象の設定)]
本処理ステップS19は、処理ステップS18(所定領域の変化判定)にて撮影範囲内の中央領域の画像について、前フレームと現フレームとの差分値が所定値未満であると判定された場合(S18:YES)に実行される。撮影レンズ106の焦点距離が長焦点端側(望遠端側)にあるとき(以下、説明の便宜上、「望遠撮影時」と記す。)は、特定の被写体を追いかけてパンやチルト等することが多い。パン撮影やチルト撮影が上手く行われていると、典型的には、追尾対象が撮影範囲の中央領域に位置し続ける。そこで、本処理ステップS19では、撮影範囲の中央領域に位置する追尾対象候補が追尾対象として設定される。本処理ステップS19において追尾対象が設定されると、図2の画像追尾処理が終了する。
[S19 in FIG. 2 (Tracking Target Setting)]
This processing step S19 is performed when it is determined in processing step S18 (predetermined change in the predetermined area) that the difference value between the previous frame and the current frame is less than the predetermined value for the image in the central area within the shooting range (S18). : YES). When the focal length of the photographic lens 106 is on the long focal end side (telephoto end side) (hereinafter, for convenience of explanation, it is referred to as “at the time of telephoto shooting”), a specific subject may be chased and panned or tilted. Many. When panning and tilting are performed well, typically, the tracking target continues to be positioned in the center area of the shooting range. Therefore, in this processing step S19, a tracking target candidate located in the central region of the shooting range is set as a tracking target. When the tracking target is set in this processing step S19, the image tracking process in FIG.

なお、撮影範囲の中央領域から追尾対象を意図的に外してパン撮影やチルト撮影が行われる場合もある。そこで、本処理ステップS19にて適用される所定領域は、中央領域に限らず、ユーザにより指定された領域であってもよい。また、パン撮影時やチルト撮影時、追尾対象以外の画像(背景等)は撮影範囲に対して動いている。そのため、撮影画像全体の中で動きが最も少ない被写体が追尾対象として設定されてもよい。   In some cases, panning and tilting are performed while the tracking target is intentionally removed from the central region of the shooting range. Therefore, the predetermined area applied in this processing step S19 is not limited to the central area, but may be an area designated by the user. Also, during pan photography or tilt photography, images (backgrounds, etc.) other than the tracking target move relative to the photographing range. Therefore, the subject with the least movement in the entire captured image may be set as the tracking target.

[図2のS20(追尾対象の設定)]
本処理ステップS20は、処理ステップS18(所定領域の変化判定)にて撮影範囲内の中央領域の画像について、前フレームと現フレームとの差分値が所定値以上であると判定された場合(S18:NO)に実行される。例えば、望遠時に特定の被写体を追いかけてパン撮影やチルト撮影を行っているときに手振れが大きく発生すると、追尾対象の位置が大きく変わることがある。この場合、追尾対象を含む撮影画像の全体が大きく変化するため、追尾対象が撮影画像内の何処に位置するかを推定することが難しい。そこで、本処理ステップS20では、追尾対象テンプレート画像と撮影画像内の各被写体画像との類似度が演算され、演算された類似度が最も高い被写体が追尾対象として設定される。本処理ステップS20において追尾対象が設定されると、図2の画像追尾処理が終了する。
[S20 in FIG. 2 (Setting of Tracking Object)]
This processing step S20 is performed when it is determined in processing step S18 (predetermined change in predetermined area) that the difference value between the previous frame and the current frame is greater than or equal to a predetermined value for the image in the central area within the shooting range (S18). : NO). For example, if a large amount of camera shake occurs during panning or tilting shooting while chasing a specific subject during telephoto, the position of the tracking target may change greatly. In this case, since the entire captured image including the tracking target changes greatly, it is difficult to estimate where the tracking target is located in the captured image. Therefore, in this processing step S20, the similarity between the tracking target template image and each subject image in the captured image is calculated, and the subject with the highest calculated similarity is set as the tracking target. When the tracking target is set in this processing step S20, the image tracking process in FIG.

次に、具体的撮影例を4例説明する。   Next, four specific photographing examples will be described.

・撮影例1(広角撮影例)
図3に、広角撮影時のLCD124の表示画面例を示す。図3中、撮影画像内の各被写体に符号O〜Oを付す。また、枠で囲われた被写体が追尾対象候補であり、より詳しくは、太枠で囲われた被写体が追尾対象である。図3(a)は、前フレームの撮影画像を示し、図3(b)は、現フレームの撮影画像を示す。
・ Shooting example 1 (Wide-angle shooting example)
FIG. 3 shows a display screen example of the LCD 124 during wide-angle shooting. In Figure 3, reference numeral O A ~ O C to each subject in the captured image. A subject surrounded by a frame is a tracking target candidate. More specifically, a subject surrounded by a thick frame is a tracking target. 3A shows a captured image of the previous frame, and FIG. 3B shows a captured image of the current frame.

本撮影例1では、広角撮影が行われており、撮影範囲が実質的に固定されている。そのため、追尾対象がフレーム間で突然離れた位置に現れることが無い。従って、処理ステップS17(追尾対象の設定)において、履歴に基づいて追尾対象候補O〜Oの動きベクトルが推定され、その推定結果に基づいて追尾対象候補O〜Oの中から被写体Oが追尾対象として設定される(図3(b)参照)。 In the first photographing example, wide-angle photographing is performed, and the photographing range is substantially fixed. Therefore, the tracking target does not appear at a position suddenly separated between frames. Thus, in the process step S17 (setting of the tracking target), the motion vector of the tracking target candidate O A ~ O C is estimated based on the history, the subject from the tracking target candidate O A ~ O C based on the estimated result O A is set as a tracking target (see Figure 3 (b)).

・撮影例2(望遠撮影例)
図4に、望遠撮影時のLCD124の表示画面例を示す。図4中、撮影画像内の各被写体に符号O〜Oを付す。また、枠で囲われた被写体が追尾対象候補であり、より詳しくは、太枠で囲われた被写体が追尾対象である。図4(a)は、前フレームの撮影画像を示し、図4(b)〜図4(d)はそれぞれ、撮影例2〜4における現フレームの撮影画像を示す。
・ Shooting example 2 (Telephoto shooting example)
FIG. 4 shows a display screen example of the LCD 124 during telephoto shooting. In Figure 4, reference numeral O D ~ O G to each subject in the captured image. A subject surrounded by a frame is a tracking target candidate. More specifically, a subject surrounded by a thick frame is a tracking target. 4A shows a captured image of the previous frame, and FIGS. 4B to 4D show captured images of the current frame in the shooting examples 2 to 4, respectively.

本撮影例2では、望遠撮影が行われているが、撮影装置1が静止状態にあり、撮影範囲が固定されている。そのため、追尾対象がフレーム間で突然離れた位置に現れることが無い。従って、処理ステップS17(追尾対象の設定)において、履歴に基づいて追尾対象候補O〜Oの動きベクトルが推定され、その推定結果に基づいて追尾対象候補O〜Oの中から被写体Oが追尾対象として設定される(図4(b)参照)。 In this shooting example 2, telephoto shooting is performed, but the shooting device 1 is in a stationary state and the shooting range is fixed. Therefore, the tracking target does not appear at a position suddenly separated between frames. Thus, in the process step S17 (setting of the tracking target), based on the history is estimated motion vector of the tracking target candidate O D ~ O F is subject from the tracking target candidate O D ~ O F based on the estimation result O D is set as a tracking target (see Figure 4 (b)).

・撮影例3(望遠撮影例)
本撮影例3では、望遠時において追尾対象がパン撮影されている。そのため、処理ステップS19(追尾対象の設定)において、追尾対象候補O〜Oの中から、撮影範囲内の所定領域(ここでは中央領域)に写る被写体Oが追尾対象として設定される(図4(c)参照)。
・ Shooting example 3 (Telephoto shooting example)
In the present photographing example 3, the tracking target is pan-photographed at the time of telephoto. Therefore, in the process step S19 (setting of the tracking target) from the tracking target candidate O D ~ O F, subject O D caught on (central region in this case) a predetermined area in the imaging range is set as a tracking target ( (Refer FIG.4 (c)).

・撮影例4(望遠撮影例)
本撮影例4では、望遠時において追尾対象がパン撮影されているが、手振れ等の発生によってその位置が大きく変わっている。そのため、処理ステップS20(追尾対象の設定)において、追尾対象テンプレート画像に類似度が最も高い被写体Oが追尾対象として設定される(図4(d)参照)。
・ Shooting example 4 (Telephoto shooting example)
In the fourth photographing example, the tracking target is pan-photographed at the time of telephoto, but the position is greatly changed due to the occurrence of camera shake or the like. Therefore, in the process step S20 (setting of the tracking target), the highest object O D similarity to the tracking target template image is set as a tracking target (see FIG. 4 (d)).

このように、本発明の一実施形態によれば、追尾対象テンプレート画像と各被写体の画像との類似度に拘わらず、そのときの撮影状態に適した方法で追尾対象が設定される。そのため、本来の追尾対象と類似する被写体が多い場合であっても、追尾対象の誤検出が避けられる。   Thus, according to one embodiment of the present invention, the tracking target is set by a method suitable for the shooting state at that time, regardless of the similarity between the tracking target template image and the image of each subject. Therefore, even when there are many subjects similar to the original tracking target, erroneous detection of the tracking target can be avoided.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本発明の実施形態に含まれる。   The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present invention also includes contents appropriately combined with embodiments or the like clearly shown in the specification or obvious embodiments.

1 撮影装置
100 システムコントローラ
102 操作部
104 駆動回路
106 撮影レンズ
108 絞り
110 シャッタ
112 固体撮像素子
114 信号処理回路
116 画像処理エンジン
118 バッファメモリ
120 カード用インタフェース
122 LCD制御回路
124 LCD
126 ROM
128 ジャイロセンサ
130 加速度センサ
132 地磁気センサ
134 GPSセンサ
200 メモリカード
DESCRIPTION OF SYMBOLS 1 Image pick-up apparatus 100 System controller 102 Operation part 104 Drive circuit 106 Shooting lens 108 Aperture 110 Shutter 112 Solid-state image sensor 114 Signal processing circuit 116 Image processing engine 118 Buffer memory 120 Card interface 122 LCD control circuit 124 LCD
126 ROM
128 Gyro sensor 130 Acceleration sensor 132 Geomagnetic sensor 134 GPS sensor 200 Memory card

Claims (6)

撮影画像の中から複数の追尾対象候補を選出する選出手段と、
選出された複数の追尾対象候補の中から撮影状態に基づいて追尾対象を設定する設定手段と、
を備える、
画像追尾装置。
A selection means for selecting a plurality of tracking target candidates from the captured image;
A setting means for setting a tracking target based on a shooting state among a plurality of selected tracking target candidates;
Comprising
Image tracking device.
前記設定手段は、
(1)前記画像追尾装置を備える撮影装置が静止状態であるか否か、
(2)前記撮影装置に備えられる撮影レンズの焦点距離が短焦点端側又は長焦点端側であるか、
の少なくとも1つに基づいて前記追尾対象を設定する、
請求項1に記載の画像追尾装置。
The setting means includes
(1) Whether or not a photographing device including the image tracking device is in a stationary state,
(2) The focal length of the photographing lens provided in the photographing apparatus is the short focal end side or the long focal end side,
Setting the tracking target based on at least one of
The image tracking device according to claim 1.
前記撮影画像内の被写体の動きを推定する動き推定手段
を備え、
前記設定手段は、
(A)前記撮影装置が静止状態である場合、
(B)前記撮影レンズの焦点距離が短焦点端側である場合、
(C)前回の撮影画像と今回の撮影画像との差分値が第一の閾値未満である場合、
の少なくとも1つが満たされる場合、前記複数の追尾対象候補の中から前記動き推定手段による被写体の動きの推定結果に基づいて前記追尾対象を設定する、
請求項1又は請求項2に記載の画像追尾装置。
Motion estimation means for estimating the motion of the subject in the captured image,
The setting means includes
(A) When the imaging device is stationary,
(B) When the focal length of the taking lens is on the short focal end side,
(C) When the difference value between the previous captured image and the current captured image is less than the first threshold value,
If at least one of the following is satisfied, the tracking target is set based on the estimation result of the motion of the subject by the motion estimation means from the plurality of tracking target candidates.
The image tracking device according to claim 1.
前記設定手段は、
前回の撮影画像と今回の撮影画像とを比較し、撮影画像全体の差分値が第二の閾値以上であり且つ該撮影画像内の所定領域における差分値が第三の閾値未満である場合に、該所定領域内に写る追尾対象候補を前記追尾対象として設定する、
請求項1から請求項3の何れか一項に記載の画像追尾装置。
The setting means includes
When comparing the previous captured image with the current captured image, if the difference value of the entire captured image is greater than or equal to the second threshold and the difference value in a predetermined area within the captured image is less than the third threshold, A tracking target candidate that appears in the predetermined area is set as the tracking target.
The image tracking device according to any one of claims 1 to 3.
前記追尾対象を表す基準画像を記憶する記憶手段と、
記憶された基準画像と前記撮影画像内の各被写体の画像との類似度を演算する類似度演算手段と、
を備え、
前記設定手段は、
前記撮影画像全体の差分値が第二の閾値以上であり且つ該撮影画像内の所定領域における差分値が第三の閾値以上である場合に、前記類似度演算手段による演算結果に基づいて類似度が最も高い被写体を前記追尾対象として設定する、
請求項4に記載の画像追尾装置。
Storage means for storing a reference image representing the tracking target;
Similarity calculation means for calculating the similarity between the stored reference image and the image of each subject in the captured image;
With
The setting means includes
When the difference value of the entire photographed image is equal to or greater than a second threshold value and the difference value in a predetermined area in the photographed image is equal to or greater than a third threshold value, the similarity is calculated based on the calculation result by the similarity calculation means. The subject with the highest is set as the tracking target.
The image tracking device according to claim 4.
撮影画像の中から複数の追尾対象候補を選出するステップと、
選出された複数の追尾対象候補の中から所定の撮影状態に基づいて追尾対象を設定するステップと、
を含む、
画像追尾方法。
Selecting a plurality of tracking target candidates from the captured image;
Setting a tracking target based on a predetermined shooting state from among a plurality of selected tracking target candidates;
including,
Image tracking method.
JP2015079429A 2015-04-08 2015-04-08 Image tracking device and image tracking method Active JP6493746B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015079429A JP6493746B2 (en) 2015-04-08 2015-04-08 Image tracking device and image tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015079429A JP6493746B2 (en) 2015-04-08 2015-04-08 Image tracking device and image tracking method

Publications (2)

Publication Number Publication Date
JP2016201636A true JP2016201636A (en) 2016-12-01
JP6493746B2 JP6493746B2 (en) 2019-04-03

Family

ID=57424557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079429A Active JP6493746B2 (en) 2015-04-08 2015-04-08 Image tracking device and image tracking method

Country Status (1)

Country Link
JP (1) JP6493746B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113893A1 (en) * 2020-11-26 2022-06-02 富士フイルム株式会社 Imaging device, imaging control method, and imaging control program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028706A (en) * 1999-05-12 2001-01-30 Sony Corp Image pickup device
JP2004289778A (en) * 2003-03-06 2004-10-14 Chuo Electronics Co Ltd Mobile apparatus for imaging mobile body
JP2010141728A (en) * 2008-12-12 2010-06-24 Panasonic Corp Imaging apparatus
JP2010171815A (en) * 2009-01-23 2010-08-05 Casio Computer Co Ltd Imaging apparatus, subject tracking method, and program
JP2012129940A (en) * 2010-12-17 2012-07-05 Canon Inc Imaging apparatus, control method of the same, and program
JP2014179942A (en) * 2013-03-15 2014-09-25 Olympus Corp Photographing apparatus and photographing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028706A (en) * 1999-05-12 2001-01-30 Sony Corp Image pickup device
JP2004289778A (en) * 2003-03-06 2004-10-14 Chuo Electronics Co Ltd Mobile apparatus for imaging mobile body
JP2010141728A (en) * 2008-12-12 2010-06-24 Panasonic Corp Imaging apparatus
JP2010171815A (en) * 2009-01-23 2010-08-05 Casio Computer Co Ltd Imaging apparatus, subject tracking method, and program
JP2012129940A (en) * 2010-12-17 2012-07-05 Canon Inc Imaging apparatus, control method of the same, and program
JP2014179942A (en) * 2013-03-15 2014-09-25 Olympus Corp Photographing apparatus and photographing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113893A1 (en) * 2020-11-26 2022-06-02 富士フイルム株式会社 Imaging device, imaging control method, and imaging control program

Also Published As

Publication number Publication date
JP6493746B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
US8433097B2 (en) Subject tracking device, subject tracking method, subject tracking program product and optical device
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
US9253410B2 (en) Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
JP2008009263A (en) Imaging device and program therefor
JP5279635B2 (en) Image processing apparatus, image processing method, and program
US10212353B2 (en) Display control apparatus and method of controlling display control apparatus
US11435550B2 (en) Camera for limiting shifting of focus adjustment optical system
JP4645413B2 (en) Imaging device
JP2003307669A (en) Camera
JP5703788B2 (en) Imaging apparatus, image processing apparatus, and image processing program
JP2009147574A (en) Imaging apparatus, and program thereof
JP2008299784A (en) Object determination device and program therefor
KR20150089933A (en) Image capture apparatus performing interval shooting, image capture method, and storage medium
JP2009212804A (en) Imaging apparats with composition assisting function, and composition assisting method of the same imaging apparatus
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP2007133301A (en) Autofocus camera
JP4487781B2 (en) Electronic camera
JP2017126915A (en) Imaging apparatus
JP6758950B2 (en) Imaging device, its control method and program
JP2003101862A (en) Image pickup device and image pickup method
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6493746B2 (en) Image tracking device and image tracking method
JP7131541B2 (en) Image processing device, image processing method and image processing program
JP2015232620A (en) Imaging device, control method and program
JP5832618B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190220

R150 Certificate of patent or registration of utility model

Ref document number: 6493746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250