JP2012138013A - Tracking device and control method therefor - Google Patents

Tracking device and control method therefor Download PDF

Info

Publication number
JP2012138013A
JP2012138013A JP2010291128A JP2010291128A JP2012138013A JP 2012138013 A JP2012138013 A JP 2012138013A JP 2010291128 A JP2010291128 A JP 2010291128A JP 2010291128 A JP2010291128 A JP 2010291128A JP 2012138013 A JP2012138013 A JP 2012138013A
Authority
JP
Japan
Prior art keywords
tracking
tracking target
target position
similarity
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010291128A
Other languages
Japanese (ja)
Other versions
JP5759170B2 (en
JP2012138013A5 (en
Inventor
Satoshi Kubota
聡 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010291128A priority Critical patent/JP5759170B2/en
Publication of JP2012138013A publication Critical patent/JP2012138013A/en
Publication of JP2012138013A5 publication Critical patent/JP2012138013A5/ja
Application granted granted Critical
Publication of JP5759170B2 publication Critical patent/JP5759170B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a tracking device and method capable of highly accurately detecting occurrence of erroneous tracking when performing tracking based on a feature of a tracking target.SOLUTION: A tracking device for tracking the position of a tracking target in a moving image executes processing for tracking a subject using feature information of the tracking target for a current processing target frame image to thereby detect a tracking target position at this time, extracts an image between the tracking target position at this time and a tracking target position at the last time from the processing target frame image, and determines whether a tracking target position detected based on similarity between the extracted image and the feature information is outside the tracking target. The tracking device, when it is determined that the detected tracking target position is not outside the tracking target, holds the tracking target position at this time as the tracking target position at the last time to be used in the determination.

Description

本発明は、指定された追尾対象を追尾するための装置および方法に関する。   The present invention relates to an apparatus and a method for tracking a specified tracking target.

任意の対象物を追尾する方法として、
・記憶したテンプレート画像、もしくは追尾実施時に逐次更新されるテンプレート画像との一致度の高い領域を探すパターンマッチング法、
・現フレームと前フレームとの画像差分から対象位置を探す相対差分法、
・対象物から単一あるいは複数の色や輝度、もしくはヒストグラムを抽出し、それらと一致度の高い領域を探索する色・輝度一致法、などが知られている。
As a method of tracking any object,
A pattern matching method that searches for a region having a high degree of coincidence with a stored template image or a template image that is sequentially updated during tracking,
-Relative difference method to find the target position from the image difference between the current frame and the previous frame,
A color / luminance matching method for extracting a single or a plurality of colors, luminances, or histograms from an object and searching for a region having a high degree of coincidence with them is known.

パターンマッチング法は、静止物へのサーチに関しては高い精度が実現できる反面、対象物と追尾装置との距離変化、対象物の回転、追尾装置自体の縦横方向などの姿勢変化、などの動きのある状況での追尾性能が十分ではなかった。相対差分法は、対象の前に他の物体が横切ったり、対象が完全にフレームアウトした後に追尾できなくなるという欠点があった。色・輝度一致法は、追尾対象の動きにはある程度対応できるが、色や輝度の分布だけでは対象を特定する能力が低く、類似する色や輝度が背景に多く分布する状況での性能が十分ではなかった。   The pattern matching method can achieve high accuracy when searching for a stationary object, but there are movements such as a change in the distance between the object and the tracking device, a rotation of the object, and a posture change in the vertical and horizontal directions of the tracking device itself. Tracking performance in the situation was not enough. The relative difference method has a drawback that tracking cannot be performed after another object crosses in front of the object or the object is completely out of frame. The color / brightness matching method can cope with the movement of the tracking target to some extent, but the ability to identify the target is low only by the distribution of the color and luminance, and the performance is sufficient in situations where many similar colors and luminance are distributed in the background It wasn't.

また、各種追尾方法の追尾性能には限界があり、追尾できなくなる場合が存在するが、追尾対象が画角内から消失したのか、追尾性能限界により他の物体へ誤追尾したのか、など、現在の追尾状況を正しく把握することも困難な場合があった。   In addition, there are limits to the tracking performance of various tracking methods, and there are cases where tracking becomes impossible, but whether the tracking target has disappeared from within the angle of view, or whether tracking has been erroneously performed to another object due to the tracking performance limit, etc. In some cases, it was difficult to correctly grasp the tracking situation.

このような課題に対し、追尾性能を向上させる様々な提案がなされている。追尾対象以外の物体との交差による追尾対象の消失に関して、特許文献1は、追尾対象消失直前の特徴を記憶し、その特徴を用いて追尾対象再出現時の追尾を可能とした構成を記載している。また、特許文献1では、複数の移動体の総面積の時間変化により、他の物体との接触の有無、交差、などの状態判断を行っている。   Various proposals for improving the tracking performance have been made for such problems. Regarding the disappearance of a tracking target due to an intersection with an object other than the tracking target, Patent Document 1 describes a configuration that stores the characteristics immediately before the tracking target disappears and enables tracking when the tracking target reappears using the characteristics. ing. Moreover, in patent document 1, state determinations, such as the presence or absence of a contact with another object, a crossing, are performed by the time change of the total area of a some mobile body.

特願平4−320254号公報Japanese Patent Application No. 4-320254

しかしながら、追尾対象の特徴を記憶し、その特徴に基づいて追尾を行う際、追尾対象と類似する特徴を持つ他の物体との接近、接触、交差などにより、他の物体を誤って追尾しはじめてしまう場合があった。また、誤追尾していることも認識できないためそのまま他の物体を追尾し、さらに、追尾対象と他の物体の位置が離れた後も、正常に追尾対象に復帰できずにいた。すなわち、追尾性能を向上する提案はあるものの、依然として追尾性能に限界があることは事実である。したがって、このような追尾性能の限界を踏まえ、誤追尾が発生した時点でこれを適切に検出し、自動的に追尾を中断したり、誤追尾が発生した可能性が高い旨を警告表示するといった処置が求められている。   However, when tracking the characteristics of the tracking target and performing tracking based on the characteristics, the tracking of other objects by the approach, contact, crossing, etc. with other objects that have similar characteristics to the tracking target has started. There was a case. Further, since it is not possible to recognize that the tracking is incorrect, another object is tracked as it is, and even after the tracking target and the position of the other object are separated from each other, it is not possible to return to the tracking target normally. That is, although there is a proposal for improving the tracking performance, it is a fact that the tracking performance is still limited. Therefore, based on the limitations of such tracking performance, this is properly detected when erroneous tracking occurs, and tracking is automatically interrupted, or a warning is displayed that there is a high possibility that erroneous tracking has occurred. Treatment is sought.

本発明は上記課題に鑑みてなされたものであり、追尾対象の特徴をもとに追尾を行う際に、誤追尾の発生を高精度に検出可能な追尾装置および方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a tracking device and method capable of detecting the occurrence of erroneous tracking with high accuracy when tracking is performed based on the characteristics of a tracking target. To do.

上記目的を達成するための本発明による追尾装置は、以下の構成を備える。すなわち、
動画像のフレーム画像に追尾処理を実行することにより、追尾対象の位置を該追尾対象の特徴情報に基づいて追尾する追尾装置であって、
今回の追尾処理の対象のフレーム画像を複数のブロックに分割し、前記複数のブロックの各々について前記特徴情報との類似度を算出する類似度算出手段と、
前記類似度算出手段で算出された類似度が最も高いブロックを今回の追尾対象位置として検出する検出手段と、
前記検出手段により検出された前記今回の追尾対象位置と、前回の追尾処理の結果として得られた前回の追尾対象位置とを結ぶ線分が通るブロックを、前記対象のフレーム画像から得られた前記複数のブロックから抽出する抽出手段と、
前記抽出手段により抽出されたブロックの前記類似度算出手段により算出された類似度に基づいて前記検出手段が検出した追尾対象位置が追尾対象外であると判定する判定手段と、を備える。
In order to achieve the above object, a tracking device according to the present invention comprises the following arrangement. That is,
A tracking device that tracks a position of a tracking target based on feature information of the tracking target by performing a tracking process on a frame image of the moving image,
A degree-of-similarity calculation means for dividing the frame image to be tracked this time into a plurality of blocks, and calculating the degree of similarity with the feature information for each of the plurality of blocks;
Detecting means for detecting a block having the highest similarity calculated by the similarity calculating means as a current tracking target position;
The block through which a line segment connecting the current tracking target position detected by the detection means and the previous tracking target position obtained as a result of the previous tracking process passes is obtained from the target frame image. Extracting means for extracting from a plurality of blocks;
Determination means for determining that the tracking target position detected by the detection means is outside the tracking target based on the similarity calculated by the similarity calculation means of the block extracted by the extraction means.

追尾対象の特徴を元に追尾を行う際、誤追尾の発生を精度良く、かつ簡易な構成で検出する。誤追尾の検出が可能となることで、追尾の自動中断、操作者への警告表示なども可能となる。   When tracking is performed based on the characteristics of the tracking target, occurrence of erroneous tracking is detected with high accuracy and a simple configuration. By making it possible to detect erroneous tracking, it is possible to automatically stop tracking and display a warning to the operator.

実施形態によるデジタルカメラ100の全体ブロック図。1 is an overall block diagram of a digital camera 100 according to an embodiment. デジタルカメラ100の外観図。1 is an external view of a digital camera 100. FIG. 実施形態による対象の追尾方法を説明する図。The figure explaining the tracking method of the object by an embodiment. 実施形態による対象の追尾方法を説明する図。The figure explaining the tracking method of the object by an embodiment. 類似度分布の一例を示す図。The figure which shows an example of similarity distribution. 追尾対象の別の例を示す図。The figure which shows another example of a tracking object. 重みテーブルを説明する図。The figure explaining a weight table. 重みテーブルの作用による類似度分布の変化を説明する図。The figure explaining the change of similarity distribution by the effect | action of a weight table. 図8(c)の類似度分布を数値により示した図。The figure which showed the similarity distribution of FIG.8 (c) by the numerical value. 誤追尾が発生する類似度分布を説明する図。The figure explaining the similarity distribution which a false tracking generate | occur | produces. 図10(c)の類似度分布を数値により示した図。The figure which showed the similarity distribution of FIG.10 (c) by the numerical value. 誤追尾の検出方法を説明する図。The figure explaining the detection method of a false tracking. 誤追尾が発生する類似度分布の他の例を示す図。The figure which shows the other example of the similarity distribution which a false tracking generate | occur | produces. 図13(c)の類似度分布を数値により示した図。The figure which showed the similarity distribution of FIG.13 (c) by the numerical value. 誤追尾の検出方法を説明する図。The figure explaining the detection method of a false tracking. 実施形態による追尾処理を説明するフローチャート。The flowchart explaining the tracking process by embodiment. 実施形態による追尾処理を説明するフローチャート。The flowchart explaining the tracking process by embodiment.

以下、添付の図面に沿って本発明の好適な一実施形態を説明する。図1は、実施形態によるデジタルカメラ100(以下、カメラ100)のシステム全体の構成例を示すブロック図である。   Hereinafter, a preferred embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram illustrating a configuration example of the entire system of a digital camera 100 (hereinafter, camera 100) according to an embodiment.

レンズ10により外光を集光する。レンズ駆動回路42にてレンズ10の位置を光軸に沿って前後に動かすことで焦点を調節したり、画角を調節したりする。手ブレ補正回路40は、ブレ量検知回路44で測定したカメラのブレ量を元にレンズ10を駆動し、手ブレをキャンセルするようにレンズ10の位置を光軸に沿って変化させることで光学的な手ブレ補正を行う構成となっている。ブレ量検知回路44には、ジャイロセンサーが含まれている。なお、図1ではレンズを駆動することで手ブレ補正を実現しているが、撮像素子16を駆動することで同様に手ブレを補正することも可能である。レンズ10を含む鏡筒部を繰り出し及び繰り込みさせる方式とし、カメラ未使用時の本体体積を小さくして携帯性を高めるようにしてもよい。レンズ10を通過した光は絞り14により、その光量が調節される。システム制御部60は、絞り制御情報を絞り駆動回路26に伝達することで、絞り14を制御する。絞り14には、複数枚の羽から構成された虹彩絞りや、あらかじめ板を様々な径で穴を打ち抜いた丸絞りなど、周知のいかなる絞りが用いられてもよい。システム制御部60はこれらの絞り14と絞り駆動回路26を用い、被写体輝度が高い場合は絞りを絞って光量を落とすように制御し、被写体輝度が低い場合は絞りを開放にして光を多く取り込むように制御する。また、光路上にNDフィルタを挿抜できる構成として絞りと同様に光量を調節するようにすることもできる。また、システム制御部60は、メカニカルシャッター制御情報をメカニカルシャッター駆動回路28に伝達することで、メカニカルシャッター12を制御することが可能である。静止画撮影時の露光時間は、メカニカルシャッター12の開閉時間により決定され、この時間はシステム制御部60が時間を判断し、メカニカルシャッター駆動回路28に指示を出す。   The lens 10 collects external light. The lens driving circuit 42 moves the position of the lens 10 back and forth along the optical axis to adjust the focal point and adjust the angle of view. The camera shake correction circuit 40 drives the lens 10 based on the camera shake amount measured by the camera shake detection circuit 44 and changes the position of the lens 10 along the optical axis so as to cancel the camera shake. It is the composition which performs a typical camera shake correction. The shake amount detection circuit 44 includes a gyro sensor. In FIG. 1, camera shake correction is realized by driving a lens. However, camera shake can be similarly corrected by driving the image sensor 16. The lens barrel portion including the lens 10 may be extended and retracted, and the body volume when the camera is not used may be reduced to improve portability. The amount of light that has passed through the lens 10 is adjusted by the diaphragm 14. The system control unit 60 controls the diaphragm 14 by transmitting the diaphragm control information to the diaphragm driving circuit 26. The diaphragm 14 may be any known diaphragm, such as an iris diaphragm composed of a plurality of wings, or a round diaphragm in which a plate is previously punched with various diameters. The system control unit 60 uses the diaphragm 14 and the diaphragm drive circuit 26 to control the diaphragm so as to reduce the amount of light when the subject brightness is high. When the subject brightness is low, the system controller 60 opens the diaphragm and captures a large amount of light. To control. In addition, the amount of light can be adjusted in the same manner as the stop as a configuration in which an ND filter can be inserted and removed from the optical path. The system control unit 60 can control the mechanical shutter 12 by transmitting mechanical shutter control information to the mechanical shutter drive circuit 28. The exposure time during still image shooting is determined by the opening / closing time of the mechanical shutter 12, and this time is determined by the system control unit 60 and an instruction is given to the mechanical shutter drive circuit 28.

レンズ10、メカニカルシャッター12、絞り14を通過した光は撮像素子16に受光される。システム制御部60は、撮像素子制御信号をタイミング発生器(以下、TG(Timing Generator))24に伝達することで、撮像素子16を制御することができる。TG24は、システム制御部60から受信した制御情報をもとに撮像素子16を駆動する。撮像素子16は素子への露光と、露光したデータの読み出し作業を周期的に行っており、この作業はTG24からの駆動信号を基準に行われる。撮像素子16で露光したデータのうち、特定のラインや特定の領域のみを読み出してくることが可能である。これは、TG24から出力される読み出し制御パルスにより読み出し方を変更することで実現できる。システム制御部60は状況に応じて最適な読み出し方式を決定し、TG24に指示する。例えば、静止画撮影時は高解像度が要求されるため撮像素子16の全データを読み出し、電子ビューファインダ時や動画撮影時は30fps/60fpsなどの高いフレームレートが要求されるため特定のラインだけ間引いて読み出す、といった使い分けを行う。なお、電子ビューファインダは、EVF(Electrical Viewfinder)とも称する。またTG24は、撮像素子16の露光時間を制御することが可能である。任意のタイミングで、素子がチャージした電荷を開放するように、TG24から撮像素子16へ駆動信号を出すことでこれを可能としている。   Light that has passed through the lens 10, the mechanical shutter 12, and the aperture 14 is received by the image sensor 16. The system control unit 60 can control the image sensor 16 by transmitting an image sensor control signal to a timing generator (hereinafter, TG (Timing Generator)) 24. The TG 24 drives the image sensor 16 based on the control information received from the system control unit 60. The image sensor 16 periodically performs exposure to the element and reading of the exposed data, and this work is performed based on the drive signal from the TG 24. It is possible to read out only a specific line or a specific area from the data exposed by the image sensor 16. This can be realized by changing the reading method by the read control pulse output from the TG 24. The system control unit 60 determines an optimum reading method according to the situation and instructs the TG 24. For example, since high resolution is required during still image shooting, all data of the image sensor 16 is read out, and when a high frame rate such as 30 fps / 60 fps is required during electronic viewfinder or movie shooting, only specific lines are thinned out. And read them out. The electronic viewfinder is also referred to as EVF (Electrical Viewfinder). The TG 24 can control the exposure time of the image sensor 16. This is made possible by outputting a drive signal from the TG 24 to the image pickup device 16 so as to release the charge charged by the device at an arbitrary timing.

撮像素子16から読み出された画像データは、CDS(Correlated DoubleSampler)回路18を通過する。CDS回路18は相関二重サンプリング方式により画像データのノイズ成分を除去することを主な役割とする。その後、画像データはPGA(Programmable Gain Amplifier)20に入力される。PGA20は、入力された画像データの画像データレベルを減衰/増幅することができる。システム制御部60は、増幅レベルをPGA20に伝達することで、増幅量を制御することができる。通常、撮像素子16の露出を適正にするには、絞り14で撮像素子16への露光量を適切に設定すると共に、シャッターにより露光時間を適切に設定することで実現される。デジタルカメラ100では、これに加えて、PGA20で画像データ信号を減衰/増幅することで、擬似的に画像データの露出を変える役割を担うことができる。これは、絞りやシャッター速度と並ぶ撮影時の露出条件の一つとして、感度という概念でユーザに機能提供される。   Image data read from the image sensor 16 passes through a CDS (Correlated Double Sampler) circuit 18. The CDS circuit 18 has a main role of removing noise components of image data by a correlated double sampling method. Thereafter, the image data is input to a PGA (Programmable Gain Amplifier) 20. The PGA 20 can attenuate / amplify the image data level of the input image data. The system control unit 60 can control the amplification amount by transmitting the amplification level to the PGA 20. Normally, the exposure of the image sensor 16 is appropriately achieved by appropriately setting the exposure amount to the image sensor 16 with the aperture 14 and appropriately setting the exposure time with the shutter. In addition to this, the digital camera 100 can play a role of changing exposure of image data in a pseudo manner by attenuating / amplifying the image data signal with the PGA 20. This is provided as a function to the user based on the concept of sensitivity as one of the exposure conditions at the time of shooting along with the aperture and shutter speed.

画像データはA/D(Analog/Digital Converter)回路22にてアナログ信号からデジタル信号へ変換される。デバイスにより、デジタル信号のビット幅は10ビット、12ビット、14ビットなどがあり、後段の画像処理回路50は、複数種類のビット幅に対応可能である。図では、CDS回路18、PGA20、A/D22、TG24をそれぞれ別のブロックとして表現しているが、一つのICパッケージにこれらの機能を搭載したものを採用することも可能である。   Image data is converted from an analog signal to a digital signal by an A / D (Analog / Digital Converter) circuit 22. Depending on the device, the bit width of the digital signal may be 10 bits, 12 bits, 14 bits, etc., and the image processing circuit 50 in the subsequent stage can support a plurality of types of bit widths. In the figure, the CDS circuit 18, the PGA 20, the A / D 22, and the TG 24 are expressed as separate blocks, but it is also possible to adopt a circuit in which these functions are mounted in one IC package.

A/D22からデジタル化された画像データは画像処理回路50へ入力される。画像処理回路50は複数のブロックから構成され、さまざまな機能を実現している。   The digitized image data from the A / D 22 is input to the image processing circuit 50. The image processing circuit 50 includes a plurality of blocks and realizes various functions.

撮像素子16はカラーフィルタを通して各画素ごとに特定の色成分を抽出するのが一般的である。A/D22からの画像信号は撮像素子16の画素及びカラーフィルタ配置に対応したデータ形式になっており、輝度成分のみを評価して露出制御を行う自動露出制御(AE: Auto Exposure Control)で使用するには適さない形式である。画像処理回路50は、画像信号から色情報を排除し、輝度情報のみを抜き出す機能を備えている。逆に、色情報のみを抽出する機能も備え、被写体の光源色を特定し、色を適切に調節するホワイトバランス処理に使用することができる。   The image sensor 16 generally extracts a specific color component for each pixel through a color filter. The image signal from the A / D 22 is in a data format corresponding to the pixel and color filter arrangement of the image sensor 16, and is used for automatic exposure control (AE) that performs exposure control by evaluating only the luminance component. It is a format that is not suitable for use. The image processing circuit 50 has a function of removing color information from an image signal and extracting only luminance information. Conversely, it also has a function of extracting only color information, and can be used for white balance processing that identifies the light source color of the subject and appropriately adjusts the color.

さらに、画像処理回路50は、撮像素子16から読み出された信号の周波数成分のみを抜き出す機能を備え、抜き出された周波数成分信号は自動フォーカス合わせ制御(AF: Auto Focus)時に使用することができる。また、画像処理回路50は、撮像素子16から読み出されたデータのどの領域の周波数成分を抽出するかを設定したり、また、領域内を分割設定したりする機能を備えている。また、AF処理時には、撮像素子16の駆動を測距に適した駆動にすることが可能である。撮像素子16を使用したテレビAFの場合、撮像素子16の駆動レート(フレームレート)に同期してフォーカスレンズを駆動する必要があるため、撮像素子16の駆動レートが高いほうが、フォーカスレンズを速く動かすことができる。このため、AF時のみ速い駆動レートになるように撮像素子16を駆動することができる。逆にフレームレートを遅くし、撮像素子16からより多くの画素データを読み出すようにすることで、画像処理回路50で周波数解析可能なデータが増え、より正確な測距が可能になるという面もある。このような撮像素子16の使い方は、カメラ100の撮影モードや、被写体の明るさに応じて適応的に決めることが可能である。   Further, the image processing circuit 50 has a function of extracting only the frequency component of the signal read from the image sensor 16, and the extracted frequency component signal can be used during auto focus control (AF). it can. Further, the image processing circuit 50 has a function of setting which region of the frequency component of the data read from the image sensor 16 is to be extracted, and setting the division within the region. Further, at the time of AF processing, it is possible to drive the image sensor 16 to be suitable for distance measurement. In the case of television AF using the image sensor 16, it is necessary to drive the focus lens in synchronization with the drive rate (frame rate) of the image sensor 16. Therefore, the higher the drive rate of the image sensor 16, the faster the focus lens is moved. be able to. For this reason, the image sensor 16 can be driven so as to have a fast drive rate only during AF. Conversely, by lowering the frame rate and reading more pixel data from the image sensor 16, data that can be analyzed by the image processing circuit 50 increases, and more accurate distance measurement is possible. is there. Such use of the image sensor 16 can be determined adaptively according to the shooting mode of the camera 100 and the brightness of the subject.

さらに、画像処理回路50は、A/D22によりデジタル化された画像信号のレベルの増減、画像の色効果などを操作する機能を備え、撮影画像の画質を調節するという役割も担っている。画像信号のレベルに関しては、
・画像全体に一律の増幅率でレベルを増減させる機能、
・元の信号レベルの大小に応じて信号レベルを変換するトーンカーブ(ガンマ)機能、
・画面内の領域ごとの周波数成分に応じた増幅率でレベルを増減させる機能、
など、様々な画像信号レベル調節が可能となっている。
Further, the image processing circuit 50 has a function of operating the increase / decrease of the level of the image signal digitized by the A / D 22 and the color effect of the image, and also plays a role of adjusting the image quality of the captured image. Regarding the level of the image signal,
-A function to increase or decrease the level with a uniform amplification factor for the entire image,
-Tone curve (gamma) function that converts the signal level according to the magnitude of the original signal level,
・ Function to increase / decrease the level with an amplification factor according to the frequency component of each area in the screen,
Various image signal level adjustments are possible.

A/D22からデジタル化された画像データは画像処理回路50へ入力すると同時に、一時記憶メモリ30に記憶することができる。一旦、一時記憶メモリ30に記憶した画像データは再度読み出すことができ、システム制御部60から画像データを参照したり、読み出した画像データを画像処理回路50に入力したりすることが可能である。さらに、画像処理回路50で画像処理した画像データを一時記憶メモリ30に書き戻したり、システム制御部60から任意のデータを一時記憶メモリ30に書き込んだりすることも可能である。   The image data digitized from the A / D 22 can be input to the image processing circuit 50 and simultaneously stored in the temporary storage memory 30. Once the image data stored in the temporary storage memory 30 can be read again, it is possible to refer to the image data from the system control unit 60 or to input the read image data to the image processing circuit 50. Further, the image data processed by the image processing circuit 50 can be written back to the temporary storage memory 30, or arbitrary data can be written from the system control unit 60 to the temporary storage memory 30.

画像処理回路50で適切に処理された画像データは、画像認識回路38に入力される。画像認識回路38は、入力された画像の明るさ状況、ピント合焦状況、色状況の認識に加え、人物の顔認識とその表情、文字がある場合はその文字情報を認識することが可能である。画像認識回路38には複数の画像を入力することが可能となっており、例えば2つの画像を入力し、その2つの画像の特徴を比較することで、同一の画像かどうかを判定することが可能となっている。画像認識回路38で画像を認識する方法に加え、システム制御部60でも画像認識処理を行うことができる。システム制御部60はCPU上であらかじめコーディングされたコンピュータプログラムを実行することができるが、一時記憶メモリ30に記憶された画像データをシステム制御部60から読み出し、その画像データを解析してシーンの状況を認識することができる。   Image data appropriately processed by the image processing circuit 50 is input to the image recognition circuit 38. The image recognition circuit 38 is capable of recognizing a person's face, its facial expression, and character information, if any, in addition to recognizing the brightness, focus, and color of the input image. is there. It is possible to input a plurality of images to the image recognition circuit 38. For example, it is possible to determine whether the images are the same by inputting two images and comparing the characteristics of the two images. It is possible. In addition to the method of recognizing an image by the image recognition circuit 38, the system control unit 60 can also perform image recognition processing. The system control unit 60 can execute a computer program coded in advance on the CPU, but reads the image data stored in the temporary storage memory 30 from the system control unit 60 and analyzes the image data to analyze the situation of the scene. Can be recognized.

LCDなどの画像表示装置108に出力する場合、画像処理回路50で画像処理を行った画像データをVRAM34上に展開しておき、それをD/A36にてアナログデータに変換して画像表示装置108に表示する。電子ビューファインダは、撮像素子16から読み出される連続した画像を順次に画像表示装置108に表示更新していくことで実現される。VRAM34上に画像データを展開する際、1つの画像データを画像表示装置108に最も大きくなるように、または複数の画像をマルチ画面表示するように、など、様々な表示形態に対応するようにVRAM34上に展開することができる。   When outputting to an image display device 108 such as an LCD, the image data subjected to image processing by the image processing circuit 50 is developed on the VRAM 34, converted into analog data by the D / A 36, and converted into analog data. To display. The electronic viewfinder is realized by sequentially updating the image display device 108 to display continuous images read from the image sensor 16. When the image data is expanded on the VRAM 34, the VRAM 34 is adapted to correspond to various display forms such that one image data is maximized on the image display device 108, or a plurality of images are displayed on a multi-screen. Can be deployed on top.

画像表示装置108には、画像だけでなく任意の情報を単独、もしくは画像と共に表示することが可能である。カメラの状態表示や、ユーザが選択あるいはカメラが決定したシャッター速度や絞り値、感度情報などの文字情報や、画像処理回路50で測定した輝度分布のようなグラフや、顔認識結果、シーン認識結果等も表示可能である。情報の表示位置、表示色も任意に選択可能である。これら様々な情報を表示することで、ユーザインターフェースをとることが可能となる。また、画像表示装置108には、画像記憶媒体82に記憶されている画像データを表示することも可能である。画像データが圧縮されている場合、圧縮伸張ブロック32にて伸張し、VRAM34にデータを展開する。このデータをD/A34にてアナログデータに変換して出力する。   The image display device 108 can display not only images but also arbitrary information alone or together with images. Camera status display, character information such as shutter speed, aperture value, sensitivity information selected by the user or determined by the camera, graphs such as luminance distribution measured by the image processing circuit 50, face recognition results, scene recognition results Etc. can also be displayed. The display position and display color of information can be arbitrarily selected. By displaying these various information, a user interface can be taken. The image display device 108 can also display image data stored in the image storage medium 82. If the image data is compressed, the image data is decompressed by the compression / decompression block 32 and the data is expanded in the VRAM 34. This data is converted into analog data by the D / A 34 and output.

画像記憶媒体82は不揮発性であり、主に撮影した画像データを記憶することが可能である。画像データの記憶に関しては、フォルダ階層を持たせたり、撮影した順にフォルダやファイル名が昇順に命名されるようにしたりすることが可能である。各画像データには、絞り値やシャッター速度、ISO感度などの撮影情報や、撮影した時刻などを付加することができ、それらを画像データと共に記憶することが可能となっている。さらに、記憶した画像データの読み出しはもちろん、画像の複製、移動、消去も可能となっている。ストロボ発光回路46は、システム制御部60の指示によりストロボユニット90を発光駆動する。操作部70は、図2により後述する各種操作スイッチを具備する。   The image storage medium 82 is non-volatile, and can mainly store captured image data. Regarding the storage of image data, it is possible to have a folder hierarchy or to name folders and file names in ascending order in the order of shooting. Shooting information such as aperture value, shutter speed, ISO sensitivity, shooting time, and the like can be added to each image data, and these can be stored together with the image data. Furthermore, the stored image data can be read out, and the image can be copied, moved, and erased. The strobe light emission circuit 46 drives the strobe unit 90 to emit light according to an instruction from the system control unit 60. The operation unit 70 includes various operation switches described later with reference to FIG.

図2に、実施形態によるカメラ100の外観図を示す。カメラ100の前面にはレンズ10が配置され、被写体像をとらえることができる。レンズ10の同一面にストロボユニット90が配置されている。主被写体が暗い場合にストロボユニット90を発光させることで十分な光量を得ることができ、暗い中でも速いシャッター速度を保ち、好適な画像を得ることができる。図2ではレンズ10とストロボユニット90が同一面に配置されているがこの限りではなく、ストロボ光が直接主被写体に当たることを避けるために、ストロボがカメラ上部に向くように配置することも可能である。暗い環境下で人物をストロボ撮影した際、人物の目が赤く写ってしまう赤目現象が知られている。これは、暗い環境下では目の瞳孔が大きくなりやすく、その状態でストロボを発光するとストロボ光が網膜に映りこみ、それが写真として赤く写ってしまう現象である。この赤目現象を軽減するために、撮影前にストロボユニット90や他の投光装置をプリ発光させ、ここは明るい環境だと勘違いさせることで瞳孔を閉じさせることが可能となっている。   FIG. 2 is an external view of the camera 100 according to the embodiment. A lens 10 is disposed on the front surface of the camera 100 so that a subject image can be captured. A strobe unit 90 is disposed on the same surface of the lens 10. When the main subject is dark, a sufficient amount of light can be obtained by causing the flash unit 90 to emit light, and a fast shutter speed can be maintained even in the dark and a suitable image can be obtained. In FIG. 2, the lens 10 and the strobe unit 90 are arranged on the same plane, but this is not a limitation, and it is also possible to arrange the strobe so that it faces the top of the camera in order to avoid the strobe light directly hitting the main subject. is there. A red-eye phenomenon is known in which a person's eyes appear red when a person is photographed with a flash in a dark environment. This is a phenomenon in which the pupil of the eye tends to be large in a dark environment, and when the strobe is emitted in this state, the strobe light is reflected on the retina and appears red as a photograph. In order to reduce this red-eye phenomenon, it is possible to close the pupil by pre-flashing the strobe unit 90 or another light projecting device before photographing and making it mistaken that this is a bright environment.

カメラ背面に画像表示装置108が配置されている。前述したように、画像表示装置108には画像のみならず、文字情報やグラフ、アイコンなどを表示することができ、ユーザとインターフェースをとる重要な部材となっている。近年デジタルカメラでは電子ビューファインダが主流となっており、画像表示装置108に出力される連続画像を参照することで被写体を捕らえ、ファインダとして使用している。このとき、AEやAFにおける測光領域情報、測距領域情報をライブ画像に重畳して表示することも可能である。さらに、被写体の認識状況として、人物顔を認識した結果を人物顔に枠を重畳させて表示したり、青空、夕陽、逆光など、背景シーンの状況を認識してアイコンで表示したりすることなどが可能となっている。また、従来からの光学ファインダー106を併設する構成とすることも可能である。電子ビューファインダは、高い視野率を実現し易い、画像表示装置108の大きさによっては被写体を大きく見易い、撮影画像とファインダー画像の画角差(パララックス)が無い、などのメリットがある。またその反面、撮像素子16や画像表示装置108を動作させるための電力が必要となり、電池の消耗が懸念される。このため、電池の消耗を避けて多くの撮影枚数が望まれる場合には、電子ビューファインダ機能をOFFし、光学ファインダー106を使用するという使い方も可能である。   An image display device 108 is disposed on the back of the camera. As described above, not only images but also character information, graphs, icons, and the like can be displayed on the image display device 108, which is an important member that interfaces with the user. In recent years, electronic viewfinders have become mainstream in digital cameras, and a subject is captured by referring to a continuous image output to the image display device 108 and used as a viewfinder. At this time, the photometry area information and distance measurement area information in AE and AF can be displayed superimposed on the live image. Furthermore, the recognition status of the subject can be displayed with the result of recognizing the person's face superimposed on a frame on the person's face, or the status of the background scene such as blue sky, sunset, or backlight can be recognized and displayed as an icon. Is possible. In addition, a conventional optical viewfinder 106 can be provided. The electronic viewfinder has advantages such as easy realization of a high field of view, easy viewing of a subject depending on the size of the image display device 108, and no difference in angle of view (parallax) between a captured image and a viewfinder image. On the other hand, power is required to operate the image sensor 16 and the image display device 108, and there is a concern about battery consumption. For this reason, when a large number of shots are desired while avoiding battery consumption, the electronic viewfinder function can be turned off and the optical viewfinder 106 can be used.

電源投入ボタン102は、カメラ100の電源オン/オフ操作を行うためのスイッチである。モード切替スイッチ110は、静止画撮影モード、動画撮影モード、再生モードなどのカメラ動作モードを切り替えることができる。図では、数モードを切り替え可能な部材として表現しているが、撮影する特定のシーンに最適化した、風景撮影モードや人物撮影モードなどの多くの静止画モードを備えることも可能である。   The power on button 102 is a switch for performing a power on / off operation of the camera 100. The mode switch 110 can switch camera operation modes such as a still image shooting mode, a moving image shooting mode, and a playback mode. In the figure, it is expressed as a member that can switch several modes, but it is possible to have many still image modes such as a landscape shooting mode and a person shooting mode optimized for a specific scene to be shot.

パラメータ選択スイッチ151,153,155,157,159により、測距領域や測光モードをはじめとする撮影時の撮影条件の選択や、撮影画像再生時のページ送り、カメラの動作設定全般などをユーザが選択することができる。さらに前述の電子ファインダーのOn/Offを選択することもできる。また、画像表示装置108は画像を表示すると共に、タッチパネルとして入力装置となる構成とすることもできる。   The parameter selection switches 151, 153, 155, 157, and 159 allow the user to select shooting conditions such as a distance measurement area and a photometry mode, to feed a page when playing back a captured image, and to set camera operation in general. You can choose. Furthermore, On / Off of the above-described electronic viewfinder can be selected. Further, the image display device 108 can display an image and can be configured as an input device as a touch panel.

カメラ上部に撮影準備&開始ボタン104が配置されている。撮影準備&開始ボタン104は一つの操作部材であるが、ボタンを浅く押下する場合(SW1動作)と深く押下する場合(SW2動作)の2段階の押下操作を実現可能である。カメラで自動露出制御や自動ピント制御を行うカメラの場合、撮影準備&開始ボタン104を浅く押すことで撮影準備として自動露出制御とピント制御が行われ、深く押すことで静止画撮影や画像認識の指示を行う操作が実現可能である。   A shooting preparation & start button 104 is arranged above the camera. The shooting preparation & start button 104 is a single operation member, but it is possible to realize a two-step pressing operation when the button is pressed lightly (SW1 operation) and when the button is pressed deeply (SW2 operation). In the case of a camera that performs automatic exposure control and automatic focus control with the camera, pressing the shooting preparation & start button 104 shallowly performs automatic exposure control and focus control as shooting preparation, and pressing it deeply performs still image shooting and image recognition. An operation for giving an instruction can be realized.

自動露出制御は、モード切替スイッチ110で選択されている撮影モードで好適な露出を得るように動作する。撮影モードには、ポートレートモードや風景モード、夜景モード、といった特定の被写体に特化したものや、オートモードといった汎用的なモードがある。また、シャッター速度優先モードや絞り優先モードなど、撮影時のシャッター速度や絞り値をあらかじめユーザが指定しておくモードもある。これらのモードでは、PGA20で設定する撮影感度を自動で好適に選択設定することや、あらかじめユーザが感度を指定することが可能である。ユーザがあらかじめ感度を指定する際、撮影感度を上げるほど画像信号のS/Nが低下するため、画質を優先したいユーザは低感度を選択することが想定される。またAF制御は、各撮影モードで好適なピンと合わせが可能なように動作を切り替えることができる。   The automatic exposure control operates so as to obtain a suitable exposure in the shooting mode selected by the mode switch 110. The shooting mode includes a specific mode such as a portrait mode, a landscape mode, a night view mode, and a general mode such as an auto mode. There are also modes in which the user specifies the shutter speed and aperture value at the time of shooting, such as the shutter speed priority mode and the aperture priority mode. In these modes, the shooting sensitivity set by the PGA 20 can be automatically selected and set appropriately, or the user can specify the sensitivity in advance. When the user designates the sensitivity in advance, the S / N of the image signal decreases as the shooting sensitivity is increased. Therefore, it is assumed that the user who wants to give priority to the image quality selects the low sensitivity. The AF control can be switched so that a suitable pin can be aligned in each shooting mode.

以上のような構成からなるカメラ100において、撮影対象となる主被写体のピントや明るさを好適な条件で撮影するために、主被写体として指定された追尾対象の追尾を実現する方法について述べる。以下、システム制御部60において、不図示のコンピュータが不図示のメモリに格納されたコンピュータプログラムを実行することで追尾処理を実行するものとして説明する。なお、追尾処理は、動画像として取得されたすべてのフレームについて実行されてもよいし、1フレームおきといったように、選択されたフレームについて実行されてもよい。   A method for realizing tracking of the tracking target designated as the main subject in order to capture the focus and brightness of the main subject to be photographed under suitable conditions in the camera 100 having the above configuration will be described. Hereinafter, the system control unit 60 will be described assuming that a computer (not shown) executes a tracking process by executing a computer program stored in a memory (not shown). The tracking process may be executed for all frames acquired as a moving image, or may be executed for selected frames such as every other frame.

図3(a)にこれから撮影しようとするシーンの一例を示す。画面301の中央に人物303が位置し、この人物がボール305で遊んでいる様子を示している。このようなシーンのピントや明るさが好適になるように撮影するには、たとえば、
・人物顔検出機能により検出された顔検出結果を用い、顔の位置やサイズに合わせて測距領域や測光領域を顔近傍に設定し、
・設定された測距領域や測光領域から得られた距離情報や輝度情報を用いてAF、AEを行う、
というような形態が知られている。また、顔検出機能が搭載されていない場合、画面内に測距領域を複数設定し、それぞれから得られた距離情報を総合的に判断し、たとえば近距離側を優先してAF制御を行うといった形態が知られている。
FIG. 3A shows an example of a scene to be photographed from now on. A person 303 is located at the center of the screen 301 and the person is playing with the ball 305. To shoot so that the focus and brightness of such scenes are suitable, for example,
-Using the face detection result detected by the human face detection function, set the distance measurement area and photometry area near the face according to the face position and size,
AF and AE are performed using distance information and luminance information obtained from the set distance measurement area and photometry area,
Such a form is known. In addition, when the face detection function is not installed, a plurality of distance measurement areas are set in the screen, distance information obtained from each is comprehensively determined, for example, AF control is performed with priority on the near distance side. The form is known.

これに対し、特定の対象や、その対象のある部位に対してピントを合わせ続けたい場合、その位置を指定可能な形態とし、かつその位置を追尾し続けることが望まれる。図3(a)では、画面301の中央に追尾対象指定枠(以下、指定枠311)が表示されている様子を示している。ユーザが任意のタイミングで操作部材153、撮影準備&開始ボタン104を押下した際、システム制御部60(追尾処理)はこの指定枠311を追尾対象指定の指示として解釈する。そして、システム制御部60は、指定枠311の内側あるいは近傍に存在する物体を追尾対象として記憶し、これ以降、当該追尾対象を追尾し続ける。また、画像表示装置108をタッチパネルとし、画面301内を押下されたタイミングを追尾対象指定の指示として解釈し、押下位置313の近傍に存在する物体を追尾対象として記憶、追尾し続けるようにすることもできる。タッチパネル搭載の場合、あらかじめ指定枠311を表示したり、ユーザが指定枠311内に追尾対象が入るように位置合わせしたりする必要がないといったメリットがある。   On the other hand, when it is desired to continue focusing on a specific target or a certain part of the target, it is desirable to set the position in a form that can be designated and to keep track of the position. FIG. 3A shows a state in which a tracking target designation frame (hereinafter, designated frame 311) is displayed at the center of the screen 301. When the user presses down the operation member 153 and the shooting preparation & start button 104 at an arbitrary timing, the system control unit 60 (tracking process) interprets the specification frame 311 as an instruction for specifying the tracking target. Then, the system control unit 60 stores an object existing inside or in the vicinity of the designated frame 311 as a tracking target, and thereafter continues to track the tracking target. Further, the image display device 108 is used as a touch panel, the timing when the screen 301 is pressed is interpreted as a tracking target designation instruction, and an object existing in the vicinity of the pressed position 313 is stored as a tracking target and is continuously tracked. You can also. When the touch panel is mounted, there is an advantage that it is not necessary to display the designated frame 311 in advance or align the tracking target within the designated frame 311.

図3(b)は、撮像した画像301を画像処理して画面内を均等に、複数の小領域(32×24)に分割した様子を示している。以下、このような小領域への分割をブロック分割といい、これら小領域の各々をブロックと称する。本実施形態ではこれ以降、図3(b)のようにブロック分割した低解像度画像を用いて追尾を実現する方法を説明する。   FIG. 3B shows a state in which the captured image 301 is subjected to image processing and the inside of the screen is evenly divided into a plurality of small regions (32 × 24). Hereinafter, such division into small areas is referred to as block division, and each of these small areas is referred to as a block. In the present embodiment, a method for realizing tracking using a low-resolution image divided into blocks as shown in FIG.

操作者により、図3(a)の押下位置313が指定され、ボール305が追尾対象として指定されたものとする。この指定位置は、図3(b)に示した画面内ブロック分割イメージではブロック315に相当する(座標は(13,19))。システム制御部60は、このブロック315、あるいはその周辺のブロックから特徴情報を抽出しメモリ(例えば、一時記憶メモリ30)に記憶する。本実施形態では、特徴情報として画像情報が用いられ、たとえば、輝度情報、色情報、コントラスト情報、エッジ情報、などがあり、これらを単体あるいは複数抽出する。   It is assumed that the operator has designated the pressing position 313 in FIG. 3A and designated the ball 305 as a tracking target. This designated position corresponds to the block 315 in the intra-screen block division image shown in FIG. 3B (coordinates are (13, 19)). The system control unit 60 extracts feature information from the block 315 or its peripheral blocks and stores it in a memory (for example, the temporary storage memory 30). In the present embodiment, image information is used as the feature information. For example, there are luminance information, color information, contrast information, edge information, and the like.

例として、RGB形式にて特徴情報を抽出して記憶した様子を図4(b)に示す。特徴色は複数記憶することができる(図4の(b)ではn個の特徴色を記憶している)。たとえば、図3(b)のブロック分割イメージにおいて、座標(13,19)のRGB、座標(14,19)のRGB、座標(13,20)のRGB、…、といったように複数色を記憶できる。特徴情報の抽出にあたっては、あらかじめ指定されたブロック315の周辺の色分状況を確認し、分布が多い色は背景色の可能性が高いとして追尾対象特徴色から除外するなどの処理を行うことが好ましい。また、特徴となりうる色が複数あった場合、いずれの特徴色を優先して追尾するかを順位づけし、図4(b)の記憶領域に優先度順に記憶することもできる。複数色の優先度順位付けの一つの方法としては、指定されたブロック315付近に分布する色のうち、面積の小さいモノを優先することがあげられる。これは、追尾対象が持つ色の中で、面積の小さい色ほど追尾対象を特徴づける重要な色になりうる、という考えに基づいたものである。またカメラ100が自動で複数の特徴色を抽出するのではなく、操作者が追尾対象内の複数の位置を指定できるようにし、優先度順とともに追尾対象の特徴色を複数記憶可能とする形態としてもよい。   As an example, FIG. 4B shows how feature information is extracted and stored in RGB format. A plurality of feature colors can be stored (in FIG. 4B, n feature colors are stored). For example, in the block division image of FIG. 3B, a plurality of colors can be stored, such as RGB at coordinates (13, 19), RGB at coordinates (14, 19), RGB at coordinates (13, 20),. . When extracting feature information, it is possible to check the color distribution around the block 315 specified in advance, and perform processing such as excluding from the tracking target feature color that there is a high possibility of a background color for a color with a large distribution. preferable. Further, when there are a plurality of colors that can become features, it is possible to prioritize which feature color is to be tracked and store them in the storage area of FIG. 4B in order of priority. One method of prioritizing a plurality of colors is to give priority to a thing with a small area among colors distributed in the vicinity of a designated block 315. This is based on the idea that among the colors of the tracking target, a color with a smaller area can be an important color that characterizes the tracking target. In addition, the camera 100 does not automatically extract a plurality of feature colors, but allows the operator to specify a plurality of positions in the tracking target, and allows a plurality of tracking target feature colors to be stored together with the priority order. Also good.

システム制御部60は、以上のようにして追尾対象の特徴情報を抽出すると、追尾動作に入る。被写体の動画像を構成するフレーム画像は所定周期で順次生成され続けており、システム制御部60は、これらフレーム画像の中から追尾対象の特徴と類似する領域を探索し、類似度が高い領域を追尾対象とする作業を行う。まず、システム制御部60は、図3(b)のように、画面内をブロック分割し、各ブロックごとに記憶した特徴との類似度を算出していく。(式1)(式2)(式3)に、本実施形態の追尾処理が類似度算出時に用いる式を示す。   When the system control unit 60 extracts the tracking target feature information as described above, the system control unit 60 enters the tracking operation. The frame images constituting the moving image of the subject are continuously generated in a predetermined cycle, and the system control unit 60 searches the frame images for areas similar to the characteristics of the tracking target, and selects areas with high similarity. Perform the work to be tracked. First, as shown in FIG. 3B, the system control unit 60 divides the screen into blocks, and calculates the similarity with the stored feature for each block. (Expression 1), (Expression 2), and (Expression 3) show expressions used by the tracking process of this embodiment when calculating the similarity.

(式1)では、記憶済みの特徴色R(N)、G(N)、B(N)と、画面内の各ブロックの色R(X,Y)、G(X,Y)、B(X,Y)の差分値ΔR(X,Y)、ΔG(X,Y)、ΔB(X,Y)を算出している。
ここで、N=特徴色番号(1〜n)、X=水平ブロック数、Y=垂直ブロック数である。
In (Expression 1), the stored characteristic colors R (N) , G (N) , B (N) and the colors R (X, Y) , G (X, Y) , B ( X, the difference value [Delta] R (X of Y), Y), ΔG ( X, Y), calculates the .DELTA.B (X, Y).
Here, N = feature color number (1 to n), X = number of horizontal blocks, and Y = number of vertical blocks.

本実施例では、RGB形式を用いて特徴色を表現しているため、3要素についてそれぞれ差分値を求める。追尾対象の特徴色がn個記憶されている場合、式中のNが1〜nのそれぞれについて演算が行われる。こうして、同一ブロックに対して1つまたは複数の(n個の)特徴色との差分値を算出していく。複数の特徴色を記憶した際、どの特徴色の差分値を採用するかの決定方法には様々な方式がある。例えば、図4(b)に示した優先順に応じて差分値を算出していき、差分値が所定未満のものが見つかり次第その特徴色を採用する方式や、全ての特徴色との差分値を全て算出したのち、最も差分値が小さい特徴色を採用する方式もある。   In this embodiment, since the characteristic color is expressed using the RGB format, a difference value is obtained for each of the three elements. When n characteristic colors to be tracked are stored, N is calculated for each of 1 to n in the equation. In this way, a difference value with one or a plurality of (n) feature colors is calculated for the same block. There are various methods for determining which feature color difference value to use when storing a plurality of feature colors. For example, a difference value is calculated according to the priority order shown in FIG. 4B, and when a difference value less than a predetermined value is found, the feature color is adopted, or a difference value with all feature colors is obtained. There is also a method of adopting a feature color having the smallest difference value after all are calculated.

続いて、(式1)にて算出された差分値が所定値ThRGB未満であるかを以下の(式2)にてチェックする。
ここで、ThRGB=所定値である。
Subsequently, whether the difference value calculated in (Expression 1) is less than a predetermined value ThRGB is checked in (Expression 2) below.
Here, ThRGB = predetermined value.

これは、ブロックの色と特徴色との色差分値が少なくともThRGB未満であることをもって、色が類似していることを判断するものである。本実施形態ではThRGBは所定値としているが、状況に応じてThRGBを適応的に変化させることも可能である。例えば、追尾対象の特徴色と類似する色が画面内に多く分布している場合、追尾対象と背景を見分けることが困難となる。そのため、このような場合にThRGBをより小さく設定して色の差分条件をより厳格に設定すれば、誤追尾の発生を軽減することが可能となる。   This is to determine that the colors are similar when the color difference value between the block color and the characteristic color is at least less than ThRGB. In this embodiment, ThRGB is a predetermined value, but ThRGB can be adaptively changed according to the situation. For example, when many colors similar to the characteristic color of the tracking target are distributed in the screen, it is difficult to distinguish the tracking target from the background. Therefore, in such a case, if ThRGB is set smaller and the color difference condition is set more strictly, the occurrence of erroneous tracking can be reduced.

色差分値が(式2)の条件を満たしたブロックに対し、以下の(式3)を用いて各ブロックの色類似度を算出する。
For the block in which the color difference value satisfies the condition of (Expression 2), the color similarity of each block is calculated using (Expression 3) below.

色類似度は、各色差分値ΔR、ΔG、ΔBがThRGBの範囲内でどの程度似ているかを混合したものとなる。ΔR、ΔG、ΔBの最小値を0、最大値を255で表すものとした場合、例えば、ThRGB=40、ΔR、ΔG、ΔBの3色が共に20の場合、そのブロックの色類似度は50%となる。同様に、ΔR、ΔG、ΔBがすべてゼロの場合、特徴色と完全一致していることとなりそのブロックの色類似度は100%となる。これに対してΔR、ΔG、ΔBがすべて40の場合、ThRGBの範囲では全く似ていないこととなり色類似度は0%となる。ちなみに、(式2)の条件を満たさない場合も全く似ていないこととし、該当ブロックの色類似度はゼロとする。   The color similarity is a mixture of how similar each color difference value ΔR, ΔG, ΔB is within the range of ThRGB. When the minimum value of ΔR, ΔG, and ΔB is represented by 0 and the maximum value is represented by 255, for example, when all three colors of ThRGB = 40, ΔR, ΔG, and ΔB are 20, the color similarity of the block is 50. %. Similarly, when ΔR, ΔG, and ΔB are all zero, the feature color is completely matched, and the color similarity of the block is 100%. On the other hand, when ΔR, ΔG, and ΔB are all 40, they are not similar in the ThRGB range, and the color similarity is 0%. By the way, even if the condition of (Equation 2) is not satisfied, it is not similar at all, and the color similarity of the corresponding block is zero.

このように画面内の各ブロックごとに色類似度を算出した結果、例えば図5(b)に示す類似度分布が得られ、図3で指定した追尾対象であるボールの領域にのみ類似度が高く出る様子が分かる。図5(a)に示した類似度の数値詳細例からは、類似度が100%となっているブロック321が画面内における最高類似度を示していることが分かり、このブロック位置が追尾対象位置であると判断される。この検出結果として追尾対象位置をユーザに示す場合、最高類似度ブロック位置を点としてそのまま表示しても良いが、類似度がある程度高いブロックからなる連続領域を追尾対象領域として矩形枠で囲むように画像に重畳表示しても良い。その際、どのブロックが追尾対象領域に含まれるかを算出する必要がある。本実施形態では画面内の最高類似度に所定係数ThRatioを乗じた有効色類似度を上回っているか否かでそれを判断する。   As a result of calculating the color similarity for each block in the screen in this way, for example, the similarity distribution shown in FIG. 5B is obtained, and the similarity is obtained only in the region of the ball that is the tracking target specified in FIG. You can see how it goes up high. From the detailed numerical example of the similarity shown in FIG. 5A, it can be seen that the block 321 having the similarity of 100% indicates the highest similarity in the screen, and this block position is the tracking target position. It is judged that. When the tracking target position is indicated to the user as the detection result, the highest similarity block position may be displayed as a point as it is, but a continuous area composed of blocks with a certain degree of similarity is surrounded by a rectangular frame as a tracking target area. It may be displayed superimposed on the image. At that time, it is necessary to calculate which block is included in the tracking target area. In the present embodiment, the determination is made based on whether or not the maximum similarity in the screen exceeds the effective color similarity obtained by multiplying the predetermined coefficient ThRatio.

ここで、ThRatio=所定値である。
(式4)によれば、最高評価値が100%、ThRatioが40%の場合、有効色類似度は40%となり、類似度が40%以上の連続領域が追尾対象領域となる。図5(a)の例では網掛けで示した連続領域がそれに該当し、この連続領域を囲ったもの(本実施形態では、連続領域を内包する矩形)が表示すべき追尾対象領域317となる。この追尾対象領域を画像に重畳表示したイメージが図3(c)となる。
Here, ThRatio = predetermined value.
According to (Expression 4), when the maximum evaluation value is 100% and the ThRatio is 40%, the effective color similarity is 40%, and a continuous region having a similarity of 40% or more is a tracking target region. In the example of FIG. 5A, the continuous area indicated by shading corresponds to this, and the area surrounding this continuous area (in this embodiment, a rectangle containing the continuous area) is the tracking target area 317 to be displayed. . An image obtained by superimposing the tracking target area on the image is shown in FIG.

以上のように、記憶した追尾対象の特徴との類似性の高い領域を探索することで追尾を実現するが、追尾対象以外に類似性の高い他の物体が画面内に現れた場合、誤追尾が発生することがある。本実施形態では色の類似度を用いる方式で説明しているが、例えばコントラスト情報や画素パターンによる類似度算出を行ったとしてもやはり追尾性能には限界があり、いずれの追尾方式を用いても他の類似物体への誤追尾の懸念は存在する。そのため、誤追尾が発生したことを検出することが望まれている。   As described above, tracking is realized by searching for a region with high similarity to the characteristics of the tracked target, but if other objects with high similarity appear in the screen other than the tracked target, May occur. In this embodiment, the method using the color similarity is described. However, for example, even if the similarity is calculated based on the contrast information or the pixel pattern, the tracking performance is still limited, and any tracking method is used. There are concerns about mistracking other similar objects. Therefore, it is desired to detect that erroneous tracking has occurred.

以下、図6(a)〜(c)を参照して誤追尾発生の一例を説明する。図6(a)の画面401において、追尾対象として真っ白なボールの位置411が指定され、追尾対象領域421が検出されて追尾が正常に開始されたものとする。しかしその後、図6(b)、(c)に示されるように、ボールが位置413,位置415へと転がり、ボールと類似する色を持つ真っ白な壁417との距離が近づいてくると、追尾処理は壁417が追尾対象だと勘違いして誤追尾が発生してしまう場合がある。すなわち、追尾対象領域が421→423→425→427のように認識され、図6(c)に示すように位置419にあるボールを追尾しなくなる場合がある。   Hereinafter, an example of occurrence of erroneous tracking will be described with reference to FIGS. It is assumed that a pure white ball position 411 is designated as a tracking target on the screen 401 in FIG. 6A, the tracking target area 421 is detected, and tracking is started normally. However, after that, as shown in FIGS. 6B and 6C, when the ball rolls to a position 413 and a position 415 and the distance from the pure white wall 417 having a color similar to the ball approaches, There is a case where the processing is misunderstood that the wall 417 is a tracking target and erroneous tracking occurs. In other words, the tracking target area is recognized as 421 → 423 → 425 → 427, and the ball at the position 419 may not be tracked as shown in FIG.

このような誤追尾の発生を軽減するために、現在検出できている追尾対象位置を基点に、算出した各ブロックの色類似度に対して重みをかける方法がある。たとえば、現在検出できている追尾対象位置付近には重みを強めにかけ、画面端に向けて距離が離れるほど重みを軽くする。こうすることで、離れた位置に現れた類似度の高い他の物体の類似度を低下させ、画面内に現れた他の類似物体へ急に追尾対象領域が乗り移ってしまわないようにすることを実現する。   In order to reduce the occurrence of such erroneous tracking, there is a method of applying a weight to the calculated color similarity of each block based on the currently detected tracking target position. For example, a higher weight is applied to the vicinity of the tracking target position that can be detected at present, and the weight is reduced as the distance increases toward the screen edge. By doing this, the similarity of other objects with high similarity appearing at a distant position is lowered, and the tracking target area is not suddenly transferred to other similar objects appearing on the screen. Realize.

図7(a)に重みの算出例を示す。図中のTargetPos501は、現在検出できている追尾対象位置である。このTargetPos501を基点に、2つの関数曲線WeightRatioIn523と、WeightRatioOut533を繋げ、画面端に向けて重みが軽くなる曲線を構成する。   FIG. 7A shows an example of calculating the weight. TargetPos 501 in the figure is a tracking target position that can be detected at present. Using this TargetPos 501 as a base point, two function curves WeightRatioIn 523 and WeightRatioOut 533 are connected to form a curve whose weight decreases toward the screen edge.

X=水平ブロック数、Y=垂直ブロック数である。 X = number of horizontal blocks, Y = number of vertical blocks.

WeightRatioIn523は、TargetPos501から距離DistDown511だけ離れた位置までの曲線を形成する。このとき係数WeightDownRatio503により、WeightRatioIn523の端点となるDistDown511においてどの程度重みを下げるかを任意に設定する。例えば、背景を含む画面内の色分布状況に応じて可変させることが可能であある。より具体的には、追尾対象と同系色の色が画面内に多く分布している場合、DistDownより画面端側の重みが軽くなるように係数WeightDownRatio503を設定し、背景への誤追尾発生を軽減する設定にすることが可能である。続いて、DistDown511以降からDistZero513までの領域は、WeightRatioOut533により徐々に重みが低下する曲線を描く。これらの曲線に基づいて各ブロック位置(X,Y)の重み値を算出していく。   WeightRatioIn 523 forms a curve from TargetPos 501 to a position separated by a distance DistDown 511. At this time, the coefficient WeightDownRatio 503 arbitrarily sets how much weight is reduced in DistDown 511 which is the end point of WeightRatioIn 523. For example, it can be varied according to the color distribution status in the screen including the background. More specifically, when many colors of the same color as the tracking target are distributed in the screen, the coefficient WeightDownRatio 503 is set so that the weight on the screen edge side is lighter than DistDown, thereby reducing the occurrence of erroneous tracking to the background. It is possible to set to. Subsequently, the area from DistDown 511 to DistZero 513 draws a curve in which the weight gradually decreases due to WeightRatioOut 533. Based on these curves, the weight value of each block position (X, Y) is calculated.

図7(b)に、さらに単純な重みの算出例をもう一つ示す。図7(b)に示されているのは、TargetPos501を基点に、重み下げ位置DistZero513まで直線でつなぎ、各ポジションの重みを算出するといった方法である。ただし、このような単純な線分の場合、現在の追尾対象位置TargetPos501に対して追尾対象が移動した場合、TargetPos501から少し距離が離れただけで、高い類似度が出ていても類似度が低下してしまう。このため、追尾性能が低下してしまうという懸念があり、設定する線分の傾きには注意しなければならない。   FIG. 7B shows another example of calculating a simpler weight. FIG. 7B shows a method in which the weight of each position is calculated by connecting a straight line from the TargetPos 501 to the weight reduction position DistZero 513. However, in the case of such a simple line segment, when the tracking target moves with respect to the current tracking target position TargetPos 501, the degree of similarity decreases even if a high degree of similarity appears even if the distance from the TargetPos 501 is a little away. Resulting in. For this reason, there is a concern that the tracking performance is lowered, and attention must be paid to the slope of the line segment to be set.

図6で示した誤追尾例に対し、たとえば図7(a)で示した重み処理がどのように有効に作用するかを説明する。   For example, how the weighting process shown in FIG. 7A works effectively with respect to the erroneous tracking example shown in FIG.

図6(a)においてボールが位置411にある場合に算出された類似度の分布を図8(a)に示す。家の白い壁に、類似度が高くかつ大面積の領域が存在している。これに対し、ボールは追尾対象ではあるものの、追尾開始時点から遠方へ転がることで類似度が低くなっている様子を示している。このように、追尾開始後に追尾対象の移動、回転、環境光の変化、などにより、類似度が低下する現象はしばしば発生し、このような状態において類似度の高い他の物体が現れた場合、そちらへ誤追尾する可能性がより高くなってしまう。そこで、図7(a)で示した重み算出により、現在の追尾対象位置である位置411を基点とする図8(b)に示した重みテーブルを求める。この重み分布により、ボール位置付近の重みが強く、画面端に向かって重みがかからなくなる様子が分かる。図8(a)の類似度分布と、図8(b)の重みテーブルを掛け合わせた結果、図8(c)の分布イメージとなる。重みづけ前は図8(a)のように家の壁が最も類似度が高い領域となっていたが、重み付けにより家の壁の類似度が低下し、図8(c)に示すようにボール付近(位置411付近)の類似度が画面内で最も高い領域となったことが分かる。図9は、図8(c)に対応する詳細な類似度の数値分布を示したものであるが、画面内で最も類似度が高いブロックは位置601のあるボール位置となる。さらに、ThRatio=40%として(式4)を適用すれば、有効色類似度は28%=70*40/100となり、類似度が28%以上の図中網掛けの領域が追尾対象領域として検出されることとなり、家の壁417への誤追尾を防ぐことができたことを示している。   FIG. 8A shows the distribution of similarity calculated when the ball is at the position 411 in FIG. The white wall of the house has a large area with high similarity. On the other hand, although the ball is a tracking target, the similarity is lowered by rolling away from the tracking start time. In this way, a phenomenon in which the degree of similarity often decreases due to movement of the tracking target, rotation, change in ambient light, etc. after the start of tracking, and when other objects with high similarity appear in such a state, There is a higher possibility of mistracking there. Therefore, the weight table shown in FIG. 8B is obtained from the position 411 that is the current tracking target position by the weight calculation shown in FIG. From this weight distribution, it can be seen that the weight near the ball position is strong and no weight is applied toward the edge of the screen. As a result of multiplying the similarity distribution of FIG. 8A and the weight table of FIG. 8B, the distribution image of FIG. 8C is obtained. Before weighting, the wall of the house was the region with the highest similarity as shown in FIG. 8A. However, the similarity of the wall of the house was reduced by weighting, and the ball as shown in FIG. It can be seen that the similarity in the vicinity (near position 411) is the highest region in the screen. FIG. 9 shows a detailed numerical distribution of similarity corresponding to FIG. 8C, and the block with the highest similarity in the screen is the ball position where the position 601 is located. Furthermore, if (Equation 4) is applied with ThRatio = 40%, the effective color similarity is 28% = 70 * 40/100, and a shaded area in the figure with a similarity of 28% or more is detected as a tracking target area. As a result, it is shown that the tracking to the wall 417 of the house could be prevented.

しかしながら重みづけを行っても、追尾対象と他の類似物体の距離が近づきすぎると、誤追尾が発生することがある。たとえば、図6(b)のようにボールが位置413にある場合に算出された類似度の分布を図10(a)に示す。家の白い壁417と位置413にあるボールの領域に類似度が分布しているのが分かる。これに対し、図10(b)に示したように位置413を基点とした重みを算出し、類似度分布に掛け合わせ、誤追尾を防ぐように図10(c)の分布を生成する。図10(c)をみると、重み付けを行ったものの画面内で最も類似度が高い領域は家の壁417となってしまい、この時点で誤追尾が発生してしまうこととなる。図11に詳細な重み付け後の類似度分布(図10(c)に対応する類似度の数値分布)を示す。画面内で最も類似度が高いブロックはブロック701となり、今まで追尾していたボールの位置(ブロック711)から、追尾対象位置が移動してしまう(723)。さらに、ThRatio=40%として(式4)を適用すれば、有効色類似度は26%=67*40/100となり、類似度が26%以上の図中網掛けの領域が追尾対象領域703として検出されてしまう。   However, even if weighting is performed, if the distance between the tracking target and another similar object is too close, erroneous tracking may occur. For example, FIG. 10A shows the distribution of similarity calculated when the ball is at the position 413 as shown in FIG. It can be seen that similarities are distributed over the white wall 417 of the house and the ball area at position 413. On the other hand, as shown in FIG. 10B, a weight with the position 413 as a base point is calculated, multiplied by the similarity distribution, and the distribution of FIG. 10C is generated so as to prevent erroneous tracking. Referring to FIG. 10C, the area having the highest similarity in the screen although weighted is the house wall 417, and erroneous tracking occurs at this point. FIG. 11 shows a detailed weighted similarity distribution (numerical distribution of similarity corresponding to FIG. 10C). The block with the highest similarity in the screen is the block 701, and the tracking target position moves from the position of the ball that has been tracked (block 711) (723). Furthermore, if (Equation 4) is applied with ThRatio = 40%, the effective color similarity is 26% = 67 * 40/100, and the shaded area in the figure with a similarity of 26% or more is the tracking target area 703. It will be detected.

追尾対象がボールの部分であるブロック711(追尾対象位置の移動元)から家の壁の部分であるブロック701(追尾対象位置の移動先)へ乗り替わる際の移動間(線分723)の類似度の状況から、他の物体への誤追尾が発生したことを推測できる。図12に、図11に示したボール位置(ブロック711)と家の壁(ブロック701)を結ぶ線分723上のブロックの類似度の分布を示す。ボール位置(ブロック711)の座標(18,14)から家の壁701の座標(14,10)を結ぶ線分723には、座標(17,13),(16,12),(15,11)の3ブロックが存在している。これらブロックの各々の類似度は、たとえば、先に(式4)にて算出した有効類似度26%と比較すると、座標(18,14)と、座標(16,12)(15,11)(14,10)はいずれも有効類似度を上回っていることが分かる。また、これに対して、座標(17,13)のブロックの類似度は有効類似度を下回っていることが分かる。このことから、ブロック711の位置とブロック701の位置との間には背景等の追尾対象以外の領域が存在することが推測され、さらにブロック711の位置とブロック701の位置は別々の物体である可能性が高いことが推測される。このように、追尾対象位置の移動元、移動先が共に有効類似度以上であり、かつ、移動元と移動先を結ぶ線分上に存在するブロックのいずれかが有効類似度を下回っていることをもって、誤追尾が発生した可能性が高いことを検出することが可能となる。   Similarity between movements (line segment 723) when switching from block 711 (movement source of tracking target position) whose tracking target is a ball part to block 701 (movement destination of tracking target position) which is a part of a house wall From the situation of the degree, it can be inferred that a false tracking to another object has occurred. FIG. 12 shows a distribution of similarity of blocks on a line segment 723 connecting the ball position (block 711) and the house wall (block 701) shown in FIG. A line segment 723 connecting the coordinates (18, 14) of the ball position (block 711) to the coordinates (14, 10) of the house wall 701 has coordinates (17, 13), (16, 12), (15, 11). ) 3 blocks exist. The similarity of each of these blocks is, for example, compared with the effective similarity of 26% previously calculated in (Equation 4), the coordinates (18, 14) and the coordinates (16, 12) (15, 11) ( 14 and 10) all exceed the effective similarity. On the other hand, it can be seen that the similarity of the block of coordinates (17, 13) is lower than the effective similarity. From this, it is estimated that there is an area other than the tracking target such as the background between the position of the block 711 and the position of the block 701, and the position of the block 711 and the position of the block 701 are different objects. It is estimated that the possibility is high. As described above, both the movement source and the movement destination of the tracking target position are equal to or higher than the effective similarity, and any of the blocks existing on the line segment connecting the movement source and the movement destination is less than the effective similarity. Thus, it is possible to detect that there is a high possibility that erroneous tracking has occurred.

また、移動元と移動先の間の類似度分布(追尾対象位置の移動間の類似度分布)に基づく誤追尾の判定方法は、上述のような有効類似度を用いた判定に限定されるものではない。たとえば、移動元が第1の所定値以上、且つ、移動先が第2の所定値以上、且つ、移動間の線分上のブロックのいずれかが第3の所定値未満、というように、所定の値を用いて類似の判定を行うようにすることも可能である。なお、第1〜第3の所定値は適宜設定すればよく、それらすべてが同じ値であってもよいし、そうでなくてもよい。或いは、移動基と移動先における類似度と、移動間に存在するブロックの類似度のうちの最低の類似度との比が所定値を超える場合に誤追尾が発生したとする判定条件を用いることも可能である。   Further, the determination method of erroneous tracking based on the similarity distribution between the movement source and the movement destination (similarity distribution between movement of the tracking target position) is limited to the determination using the effective similarity as described above. is not. For example, a predetermined value such that the movement source is not less than the first predetermined value, the movement destination is not less than the second predetermined value, and any of the blocks on the line segment between the movements is less than the third predetermined value. It is also possible to make a similar determination using the value of. In addition, what is necessary is just to set the 1st-3rd predetermined value suitably, and all of them may be the same value, and may not be so. Alternatively, use a determination condition that erroneous tracking occurs when the ratio between the similarity between the moving base and the moving destination and the lowest similarity among the similarities of blocks existing during the movement exceeds a predetermined value. Is also possible.

上述した方法は、追尾対象と他の類似物体との接近速度がある程度遅い場合に有効に作用するが、接近速度が速い場合にこの方法により誤追尾が検出できない場合がある。なぜなら、上述の方法は追尾対象位置の移動間に背景等が存在することを検出できなければならないからである。このため、早い速度で急速に他の類似物体と接近して、移動間の背景を検出する間もなく追尾対象と他の類似物体が接触したり、あるいは交差したりしてしまった場合、誤追尾したことの検出が困難となる。   The above-described method works effectively when the approach speed between the tracking target and another similar object is slow to some extent. However, when the approach speed is fast, there is a case where erroneous tracking cannot be detected by this method. This is because the above-described method must be able to detect the presence of a background or the like during the movement of the tracking target position. For this reason, if a tracking target and another similar object contact or intersect each other soon after quickly approaching another similar object at a fast speed and detecting the background between movements, a false tracking was performed. It becomes difficult to detect this.

その様子を図13に示す。図13(a)は、図6(c)のようにボールが位置415にあり、家の壁417と接触してしまった場合の類似度分布である。家の壁417とボールには類似度が分布しているが、お互いが接触しており、ボールの位置415を基点とした図13(b)の重み付けを行ったとしても、図13(c)に示すように、最高類似度は家の壁417の位置となってしまう。図13(c)に対応する詳細な類似度の数値分布を図14に示す。この場合、今まで、ボール位置であるブロック811を追尾していたところ、画面内の最高評価値が家の壁(ブロック801)となったことで、追尾対象位置がブロック811からブロック801へ移ってしまう。また、追尾対象領域を求めるために(式4)を用いて有効類似度=34%(=87*40/100)を算出すると、図中で網掛けで示した領域が有効類似度を持つと判定される。この結果、家の壁417はもとより、ボール(領域813)も含めた領域803が追尾対象領域として検出されてしまう。このように、他の類似物体と接触した場合、追尾対象と他の類似物体の類似度は一体化し、誤追尾となってしまう。   This is shown in FIG. FIG. 13A shows the similarity distribution when the ball is at the position 415 and is in contact with the house wall 417 as shown in FIG. Similarities are distributed between the wall 417 of the house and the ball, but they are in contact with each other, and even if the weighting of FIG. 13B based on the position 415 of the ball is performed, FIG. As shown, the highest similarity is the position of the wall 417 of the house. FIG. 14 shows a detailed numerical distribution of similarity corresponding to FIG. In this case, until now, the block 811 that is the ball position has been tracked, but the tracking target position has moved from the block 811 to the block 801 because the highest evaluation value in the screen is the wall of the house (block 801). End up. Further, when the effective similarity = 34% (= 87 * 40/100) is calculated using (Equation 4) in order to obtain the tracking target area, the area indicated by shading in the figure has an effective similarity. Determined. As a result, the region 803 including the ball (region 813) as well as the house wall 417 is detected as the tracking target region. As described above, when contacting with another similar object, the similarities of the tracking target and the other similar object are integrated, resulting in erroneous tracking.

この誤追尾発生の瞬間を捕えるために、図12と同様に、移動元、移動先、移動間の類似度の分布状況を検査してみる。図15に類似度分布を示す。図15からは、移動間の線分上に存在するブロック(15,12)(15,11)の類似度は高く、図12のように異なる物体間の移動であることを推測するのは困難な状況である。そこで、追尾対象位置の移動距離と、追尾対象領域サイズの変化に着目する。   In order to catch the moment of occurrence of this erroneous tracking, the movement state of the movement source, the movement destination, and the degree of similarity between the movements are examined as in FIG. FIG. 15 shows the similarity distribution. From FIG. 15, the similarity of the blocks (15, 12) (15, 11) existing on the line segment between the movements is high, and it is difficult to guess that the movement is between different objects as shown in FIG. It is a situation. Therefore, attention is paid to the movement distance of the tracking target position and the change of the tracking target area size.

追尾対象位置は座標(16,13)から座標(14,10)へ3ブロックも移動しており、かつ、追尾対象領域サイズは、ボールを囲う領域813のサイズから、家とボールを共に囲う領域803のサイズへ大きく変化している。もし追尾対象が、例えば遠くから近くへ寄ってくる距離方向への移動を行っている場合、サイズは急に大きくならずに徐々に大きくなることが想定され、また、追尾対象位置の変化と同時にサイズ変化が急激に発生することは通常考えづらい。そこで、追尾対象位置の移動距離が所定以上、追尾対象領域サイズの変化量が所定以上であることをもって、他の物体への誤追尾が発生したことが推測可能となる。   The tracking target position has moved 3 blocks from the coordinates (16, 13) to the coordinates (14, 10), and the tracking target area size is an area surrounding both the house and the ball from the size of the area 813 surrounding the ball. It has changed greatly to the size of 803. If the tracking target is moving in the distance direction approaching from far to near, for example, it is assumed that the size does not increase suddenly but gradually increases, and at the same time the tracking target position changes It is usually difficult to imagine a sudden change in size. Therefore, when the movement distance of the tracking target position is equal to or greater than a predetermined value and the change amount of the tracking target area size is equal to or greater than the predetermined value, it can be estimated that an erroneous tracking to another object has occurred.

このとき、追尾対象領域サイズの変化は、領域の面積としても良いし、領域が矩形であれば水平サイズや垂直サイズの変化量、または対角線長の変化量をもって、追尾対象領域サイズの変化量としても良い。   At this time, the change in the size of the tracking target area may be the area of the area, or if the area is rectangular, the amount of change in the size of the tracking target area is the amount of change in horizontal size, vertical size, or diagonal length. Also good.

このように、追尾対象と追尾対象と類似する他の物体が急速に接近し、接触、交差が発生した場合であっても、追尾対象位置と追尾対象領域の変化量を監視することで誤追尾の発生を検出することが可能となる。   In this way, even if the tracking target and other objects similar to the tracking target approach rapidly and contact and crossing occur, the tracking error is detected by monitoring the change in the tracking target position and the tracking target area. It is possible to detect the occurrence of.

以下に追尾動作、および誤追尾検出の流れをフローチャートで示していく。   The flow of the tracking operation and erroneous tracking detection will be shown below in a flowchart.

図16は本実施例の追尾方法を搭載したカメラ100の全体フローである。カメラ100の電源投入ボタン102が押下されてから、システム制御部60におけるCPU起動、メモリ等への電源供給が行われ、カメラシステム(システム制御部60)が起動する(S101)。その後、カメラでの撮影動作に必要なレンズ10(鏡筒部)の繰り出し処理や、メカニカルシャッター12、メカ絞り14といった各種デバイス、撮像素子16、画像表示装置108などのデバイスが起動される(S103)。カメラ起動直後から画像表示装置に被写体像のライブビュー表示を行う場合、システム制御部60は、ライブビューに表示される画像の露出、色、ピントが適切になるように、AE/AWB/AF処理を開始する(S105)。その後、画像表示装置108にライブ画像が出力され始める(S107)。   FIG. 16 is an overall flow of the camera 100 equipped with the tracking method of the present embodiment. After the power-on button 102 of the camera 100 is pressed, the CPU is activated in the system control unit 60 and the power is supplied to the memory and the like, and the camera system (system control unit 60) is activated (S101). After that, the lens 10 (lens barrel) necessary for shooting operation with the camera, the various devices such as the mechanical shutter 12 and the mechanical aperture 14, the devices such as the image sensor 16 and the image display device 108 are activated (S103). ). When performing live view display of the subject image on the image display device immediately after the camera is activated, the system control unit 60 performs AE / AWB / AF processing so that the exposure, color, and focus of the image displayed in the live view are appropriate. Is started (S105). Thereafter, a live image starts to be output to the image display device 108 (S107).

システム制御部60は、ライブビュー表示中にカメラ操作者により、本実施形態の被写体追尾機能を発動するか否かの指示がなされているかをチェックする(S109)。追尾対象の指示は、図3において上述したように、
・あらかじめ画像表示装置に指定枠311を表示し、指示ボタンが押下された時点の指定枠内に存在する物体を追尾対象とする、
・タッチパネル式の画像表示装置において、画面の任意の位置を押下することでその位置(たとえば押下位置313)の物体を追尾対象とする、
などにより行うことができる。追尾対象指定がある場合、システム制御部60は追尾対象の特徴抽出処理を行い(S110)、図4(b)に示したように追尾対象の特徴をメモリ(たとえば一時記憶メモリ30)に記憶する。ライブビュー表示中、システム制御部60は、ライブ画像の露出、色、ピントを被写体に合わせ続けるためのAE/AWB/AF処理を行う(S113,S115,S117)。また、これらと並行して、追尾が開始されていれば(S111、YES)、システム制御部60は、図17の追尾対象探索処理を実行し(S201)、その追尾結果はたとえばAF処理でのピント合わせ処理や、AE処理に用いられる。
The system control unit 60 checks whether the camera operator has instructed whether to activate the subject tracking function of the present embodiment during live view display (S109). As described above with reference to FIG.
-A designated frame 311 is displayed in advance on the image display device, and an object existing in the designated frame when the instruction button is pressed is set as a tracking target.
In a touch panel type image display device, by pressing an arbitrary position on the screen, an object at that position (for example, the pressed position 313) is set as a tracking target.
Etc. If there is a tracking target designation, the system control unit 60 performs tracking target feature extraction processing (S110), and stores the tracking target feature in a memory (for example, the temporary storage memory 30) as shown in FIG. 4B. . During live view display, the system control unit 60 performs AE / AWB / AF processing for continuously adjusting the exposure, color, and focus of the live image to the subject (S113, S115, S117). In parallel with these, if tracking is started (S111, YES), the system control unit 60 executes the tracking target search process of FIG. 17 (S201), and the tracking result is obtained by, for example, AF processing. It is used for focusing processing and AE processing.

システム制御部60は、撮影準備指示としてのSW1ボタンの押下を検出すると(S121)、静止画撮影のための絞り値やシャッター速度、ISO感度を決定するためのAE、主被写体にピントを合わせるためのAFを行う(S123、S125)。通常、SW1押下をもって静止画撮影の準備が整ったとし、撮影開始指示としてSW2が押下されることを待つばかりとなる。しかしながら、被写体追尾が発動されている場合には動体被写体である場合が多いため、システム制御部60は、SW1ボタンを保持している間にも追尾対象探索処理を行う(S201)。また、システム制御部60が、その追尾結果を用いて被写体の変化に応じてAE、AFを行うように構成しても良い(S133,S135)。システム制御部60は、SW2が押下されたことを検出すると(S141)、撮影処理を行う(S161)。ただし、低照度環境下での撮影や逆光シーンでの撮影で、ストロボ発光が有効な場合にはストロボ発光量を決定するための調光動作が撮影前に行われる(S153)。撮影が行われた後は、SW1ボタン、SW2ボタンの押下状況に応じて、ライブビュー処理が再開される。   When the system control unit 60 detects that the SW1 button is pressed as a shooting preparation instruction (S121), the aperture value and shutter speed for still image shooting, AE for determining ISO sensitivity, and the main subject are in focus. AF is performed (S123, S125). Normally, it is assumed that preparation for still image shooting is completed when SW1 is pressed, and it is only waited for SW2 to be pressed as a shooting start instruction. However, since the subject tracking is often a moving subject when the subject tracking is activated, the system control unit 60 performs the tracking target search process while holding the SW1 button (S201). Further, the system control unit 60 may be configured to perform AE and AF according to the change of the subject using the tracking result (S133, S135). When the system control unit 60 detects that the SW2 is pressed (S141), the system control unit 60 performs a photographing process (S161). However, in the case of shooting in a low illumination environment or shooting in a backlight scene, if the flash emission is valid, a light control operation for determining the amount of flash emission is performed before shooting (S153). After shooting, the live view process is resumed according to the pressing state of the SW1 button and SW2 button.

図17に、本実施形態による誤追尾検出を含む追尾対象探索の処理を示す。   FIG. 17 shows a tracking target search process including erroneous tracking detection according to the present embodiment.

まず最初に、システム制御部60は、前回の追尾処理の実行時の追尾対象情報として追尾対象の位置PreTargetPosX,Y、領域サイズPreTargetSizeX,Y、前回の追尾対象位置の類似度PreTargetEvaを取得する(S203)。なお、「前回の追尾処理」とは処理の対象となっている現在の処理対象のフレームよりも過去のフレームの画像に対する追尾処理のうち、もっとも最近の追尾処理である。また、フローチャート中に記載している評価値とは、“類似度”と同義である。このとき、追尾開始後の初めての追尾であれば前回の値が存在しないため、初期情報として追尾対象位置には追尾対象指定位置、領域サイズおよび類似度にはそれぞれ所定値が用いられるものとしておく。   First, the system control unit 60 acquires the tracking target position PreTargetPosX, Y, the region size PreTargetSizeX, Y, and the previous tracking target position similarity PreTargetEva as tracking target information at the time of execution of the previous tracking process (S203). ). Note that the “previous tracking process” is the most recent tracking process among the tracking processes for images of frames that are past the current processing target frame. Further, the evaluation value described in the flowchart is synonymous with “similarity”. At this time, since there is no previous value for the first tracking after the start of tracking, a predetermined value is used for the tracking target position, the region size, and the similarity as the tracking target position as initial information. .

次に、システム制御部60は、追尾対象位置PreTargetPosX,Yを基点として、図7(a)または(b)で説明した重みテーブルを生成する(S205)。続いて、システム制御部60は、図16のS110において記憶した追尾対象の特徴色と各ブロックの類似度を算出していく(S207)。このとき、先のS205で算出しておいた重みテーブルを参照し、重み値がある程度大きい値を持っているブロックについてのみ類似度を算出するようにしても良い。これは、重み付け後の類似度が所定値を下回っているブロックはそもそも追尾対象とは成り得ないため、無駄な類似度算出処理を省くためにも実施したほうがよい。   Next, the system control unit 60 generates the weight table described in FIG. 7A or 7B using the tracking target position PreTargetPosX, Y as a base point (S205). Subsequently, the system control unit 60 calculates the similarity between the characteristic color of the tracking target stored in S110 of FIG. 16 and each block (S207). At this time, the similarity may be calculated only with respect to a block having a weight value that is somewhat large with reference to the weight table calculated in the previous S205. This is preferably performed in order to eliminate useless similarity calculation processing because blocks whose weighted similarity is below a predetermined value cannot be a tracking target in the first place.

次に、システム制御部60は、算出した類似度への重み付けを行う(S209)。これは、図8、図10、図13において、(a)に示す重み付け前類似度分布と(b)に示す重みテーブルを用いて、(c)に示す重み付け後類似度分布を生成する処理に相当する。続いて、システム制御部60は、重み付けを行った類似度分布内から最高評価値を抽出し(S211)、その最高評価値が所定値ThTargetEva1を上回っているかを確認する(S213)。所定値ThTargetEva1を下回っていた場合、システム制御部60は、記憶した追尾対象の特徴色と類似するブロックが画面内に見つからなかったと判断し、追尾結果として“LOST”と判定する(S215)。   Next, the system control unit 60 performs weighting on the calculated similarity (S209). This is a process for generating the weighted similarity distribution shown in (c) using the pre-weighted similarity distribution shown in (a) and the weight table shown in (b) in FIGS. Equivalent to. Subsequently, the system control unit 60 extracts the highest evaluation value from the weighted similarity distribution (S211), and confirms whether the highest evaluation value exceeds a predetermined value ThTargetEva1 (S213). When the value is below the predetermined value ThTargetEva1, the system control unit 60 determines that a block similar to the stored characteristic color of the tracking target is not found in the screen, and determines “LOST” as the tracking result (S215).

一方、最高評価値が所定値を上回っていた場合、システム制御部60は、その最高評価値位置を今回の追尾対象位置TargetPosX,Yとして仮確定する(S217)。ここで仮確定と表記したのは、このあとに行う誤追尾検出により追尾対象位置が採用されない可能性があるためである。さらに、システム制御部60は、TargetPosX,Yのブロックを含み、所定値以上の類似度を持つブロックが連続した領域を含む矩形領域を追尾対象領域TargetSizeX,Yとして検出する(S219)。ここで連続領域判定に使用する所定値は式4で算出した有効色類似度を用いても良い。   On the other hand, when the highest evaluation value exceeds the predetermined value, the system control unit 60 temporarily determines the highest evaluation value position as the current tracking target position TargetPosX, Y (S217). Here, the provisional confirmation is described because there is a possibility that the tracking target position may not be adopted due to the subsequent error tracking detection. Furthermore, the system control unit 60 detects a rectangular area including a block including TargetPosX, Y blocks and including a block having similarities of a predetermined value or more as a tracking target area TargetSizeX, Y (S219). Here, the effective color similarity calculated by Expression 4 may be used as the predetermined value used for the continuous region determination.

システム制御部60は、新たな追尾対象位置TargetPosX,Yが仮確定したのち、誤追尾が発生していないかを検査する。まずは追尾対象から他の類似物体への乗り移りがチェックされる。このため、システム制御部60は、図12で説明したように、前回の追尾対象位置PreTargetPosX,Yと、今回の追尾によるTargetPosX,Yの移動間に存在するブロックの類似度分布をとる。そして、この類似度分布から、移動間の最小評価値MinEvaを抽出するS221。   After the new tracking target position TargetPosX, Y is provisionally determined, the system control unit 60 checks whether a false tracking has occurred. First, the transfer from the tracking target to another similar object is checked. For this reason, as explained in FIG. 12, the system control unit 60 takes a similarity distribution of blocks existing between the previous tracking target position PreTargetPosX, Y and the movement of TargetPosX, Y by the current tracking. Then, a minimum evaluation value MinEva between movements is extracted from this similarity distribution S221.

システム制御部60は、追尾対象と類似する色を持つ他の物体への誤追尾が発生していないかをチェックするための条件として、
・今回の追尾対象位置の類似度MaxEvaが第1の所定値ThTop1超であること、
・前回の追尾対象位置の類似度PreTargetEvaが第2の所定値ThTop2超であること、
・追尾対象位置の移動間の最小評価値MinEvaが第3の所定値ThBottom未満であること、
の3つが成り立つことをもって、他の物体への誤追尾発生と判断する(S223)。なお、この判断条件は一例にすぎず、「追尾対象位置の移動間の最小評価値MinEvaが第3の所定値ThBottom未満であること」のみをもってご追尾の発生を判定するようにしてもよい。誤追尾発生と判断された場合、すなわち、ステップS217で仮確定された追尾対象位置が追尾対象外であると判定する。誤追尾発生が検出された場合には、ただちに当該追尾対象に関する追尾処理を中止するようにしてもよいが、以下のような更に2つの選択肢を設ける処理を行ってもよい。すなわち、システム制御部60が、前回の追尾対象位置の類似度が所定値ThTargetEva2より大きいか否か、換言すれば、前回の追尾位置のままでもある程度の類似度を持っているか否かを判断する。そして、前回の追尾位置のままでもある程度の類似度を持つと判断したならば、システム制御部60は、新たに検出した追尾対象位置へ移動することなく、前回の追尾位置を保持する。すなわち、S217で仮確定したTargetPosX,Yに、前回の追尾対象位置PreTargetPosX,Yを書き戻すことで追尾位置を保持するようにする(S229,S231)。他方、S225にて類似度が所定値ThTargetEva2を下回っている場合、システム制御部60は、前回の追尾対象位置には類似する物体が既にいなくなっている判断し、追尾を中断するために“LOST”と判定する(S227)。
The system control unit 60, as a condition for checking whether or not erroneous tracking to another object having a color similar to the tracking target has occurred,
The similarity MaxEva of the tracking target position this time is greater than the first predetermined value ThTop1,
The previous tracking target position similarity PreTargetEva exceeds the second predetermined value ThTop2,
The minimum evaluation value MinEva during the movement of the tracking target position is less than the third predetermined value ThBottom,
If the following three hold, it is determined that an error tracking to another object has occurred (S223). Note that this determination condition is merely an example, and the occurrence of tracking may be determined only by “the minimum evaluation value MinEva during the movement of the tracking target position being less than the third predetermined value ThBottom”. When it is determined that an erroneous tracking has occurred, that is, it is determined that the tracking target position temporarily determined in step S217 is not a tracking target. When an erroneous tracking occurrence is detected, the tracking process related to the tracking target may be stopped immediately, or a process for providing two options as described below may be performed. That is, the system control unit 60 determines whether or not the similarity of the previous tracking target position is larger than the predetermined value ThTargetEva2, in other words, whether or not the previous tracking position has a certain degree of similarity. . If it is determined that there is a certain degree of similarity even with the previous tracking position, the system control unit 60 retains the previous tracking position without moving to the newly detected tracking target position. That is, the tracking position is held by rewriting the previous tracking target position PreTargetPosX, Y to TargetPosX, Y provisionally determined in S217 (S229, S231). On the other hand, if the similarity is less than the predetermined value ThTargetEva2 in S225, the system control unit 60 determines that there is no similar object already in the previous tracking target position, and “LOST” to interrupt the tracking. "(S227).

S223にて異なる物体への乗り移りではないと判断された場合、システム制御部60は、異なる物体との接触、交差が発生していないかを検査する。システム制御部60は、誤追尾判断材料として、前回との追尾対象位置からの移動量を算出し(S233)、前回の追尾対象領域サイズからの追尾対象領域サイズの変化量を算出する(S235)。そして、システム制御部60は、移動量ΔPosが第4の所定値ThPosを上回っているか、サイズ変化量ΔSizeが第5の所定値ThSizeを上回っているかをチェックする。移動量、サイズ変化量ともに所定値を上回っている場合、システム制御部60は、図14に示したような他の物体との接触による誤追尾が発生したと判断する(S237)。システム制御部60は、S237で誤追尾発生を検出した場合は、追尾結果として、追尾を中断する意味で“LOST”と判定する(S239)。システム制御部60は、S237で誤追尾が検出されなかったことをもって追尾が成功したと判断し、その追尾結果として追尾対象位置TargetrPosX,Y、追尾対象領域TargetSizeX,Yを検出したことが確定“FIND”する(S241)。   If it is determined in S223 that the transfer is not to a different object, the system control unit 60 checks whether a contact or intersection with the different object has occurred. The system control unit 60 calculates the amount of movement from the tracking target position with respect to the previous tracking target as an error tracking determination material (S233), and calculates the amount of change in the tracking target region size from the previous tracking target region size (S235). . Then, the system control unit 60 checks whether the movement amount ΔPos exceeds the fourth predetermined value ThPos or whether the size change amount ΔSize exceeds the fifth predetermined value ThSize. When both the movement amount and the size change amount exceed the predetermined values, the system control unit 60 determines that an erroneous tracking due to contact with another object as shown in FIG. 14 has occurred (S237). When the occurrence of erroneous tracking is detected in S237, the system control unit 60 determines “LOST” as a tracking result in the sense of interrupting tracking (S239). The system control unit 60 determines that tracking has succeeded when no tracking error is detected in S237, and determines that the tracking target position TargetrPosX, Y and the tracking target area TargetSizeX, Y have been detected as the tracking result “FIND (S241).

S231,S241にて追尾対象位置と領域が確定した結果は、画像表示装置に表示するライブ画像に追尾枠を重畳描画して、操作者に視覚的に提供されることとなる。なお、S227,S239にて誤追尾の発生が検出された場合、追尾動作を自動的に中断して追尾枠情報の描画も消去し、さらに追尾中断の旨を画像表示装置に表示したり警告音で知らせる形態としてもよい。   The result of determining the tracking target position and area in S231 and S241 is visually provided to the operator by superimposing and drawing the tracking frame on the live image displayed on the image display device. When the occurrence of erroneous tracking is detected in S227 and S239, the tracking operation is automatically interrupted, the drawing of the tracking frame information is also erased, and further information indicating that the tracking is interrupted is displayed on the image display device or a warning sound. It is good also as a form notified by.

なお、S233〜S237の処理において、サイズの変化量と追尾対象位置の移動量を用いたが、サイズの変化量のみを用いるようにしてもよい。追尾対象位置の移動量は、フレームの取得タイミングに左右されるためである。   In the processing of S233 to S237, the amount of change in size and the amount of movement of the tracking target position are used, but only the amount of change in size may be used. This is because the amount of movement of the tracking target position depends on the frame acquisition timing.

以上のように、追尾対象特徴との類似度を用いた追尾を逐次実行する際、同時に誤追尾検出処理も行い、追尾結果の更新/保持/中断を正しく判断することが可能となる。   As described above, when the tracking using the similarity to the tracking target feature is sequentially performed, the erroneous tracking detection process is also performed at the same time, and it is possible to correctly determine whether the tracking result is updated / held / suspended.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

動画像において追尾対象の位置を追尾する追尾装置であって、
現在の処理対象のフレーム画像に対して前記追尾対象の特徴情報を用いた被写体の追尾処理を実行することにより、今回の追尾対象位置を検出する検出手段と、
前記処理対象のフレーム画像から、前回の追尾対象位置と前記今回の追尾対象位置との間にある画像を抽出する抽出手段と、
前記抽出手段により抽出された画像と前記特徴情報との類似度に基づいて、前記検出手段が検出した前記今回の追尾対象位置が追尾対象外であるか否かを判定する判定手段と、
前記検出手段が検出した前記今回の追尾対象位置が追尾対象外でないと判定された場合に、前記今回の追尾対象位置を前記判定手段が使用する前回の追尾対象位置として保持する保持手段と、を備えることを特徴とする追尾装置。
A tracking device that tracks the position of a tracking target in a moving image,
Detecting means for detecting the current tracking target position by performing subject tracking processing using the tracking target feature information on the current processing target frame image;
Extracting means for extracting an image between the previous tracking target position and the current tracking target position from the processing target frame image;
A determination unit that determines whether or not the current tracking target position detected by the detection unit is outside the tracking target based on the similarity between the image extracted by the extraction unit and the feature information;
Holding means for holding the current tracking target position as the previous tracking target position used by the determination means when it is determined that the current tracking target position detected by the detection means is not a tracking target; A tracking device comprising:
前記検出手段は、
前記現在の処理対象のフレーム画像を複数のブロックに分割し、前記複数のブロックの各々について前記特徴情報との類似度を算出する類似度算出手段と、
前記類似度算出手段で算出された類似度が最も高いブロックを前記今回の追尾対象位置として検出する手段とを有し、
前記抽出手段は、
前記今回の追尾対象位置と、前記前回の追尾対象位置とを結ぶ線分が通るブロックを、前記処理対象のフレーム画像から得られた前記複数のブロックから抽出し、
前記判定手段は、
前記抽出手段により抽出されたブロックの前記類似度算出手段により算出された類似度に基づいて前記検出手段が検出した追尾対象位置が追尾対象外であると判定する、
ことを特徴とする請求項1に記載の追尾装置。
The detection means includes
A similarity calculation unit that divides the current frame image to be processed into a plurality of blocks, and calculates a similarity with the feature information for each of the plurality of blocks;
Means for detecting, as the current tracking target position, a block having the highest similarity calculated by the similarity calculation means;
The extraction means includes
A block through which a line segment connecting the current tracking target position and the previous tracking target position passes is extracted from the plurality of blocks obtained from the processing target frame image;
The determination means includes
Determining that the tracking target position detected by the detection means is outside the tracking target based on the similarity calculated by the similarity calculation means of the block extracted by the extraction means;
The tracking device according to claim 1.
前記判定手段は、前記抽出されたブロックの前記類似度算出手段により算出された類似度の少なくとも一つが第1の所定値よりも小さい場合に、前記検出手段が検出した追尾対象位置が追尾対象外であると判定することを特徴とする請求項2に記載の追尾装置。   The determination unit determines that the tracking target position detected by the detection unit is not a tracking target when at least one of the similarities calculated by the similarity calculation unit of the extracted block is smaller than a first predetermined value. The tracking device according to claim 2, wherein the tracking device is determined to be. 前記判定手段は、
前記抽出されたブロックの前記類似度算出手段により算出された類似度の少なくとも一つが第1の所定値よりも小さく、
前記対象のフレーム画像から得られた前記複数のブロックのうちの、前記今回の追尾対象位置と前記前回の追尾対象位置の各々に対応するブロックについて前記類似度算出手段が算出した類似度が、それぞれ第2の所定値と第3の所定値よりも大きい、
場合に、前記検出手段が検出した追尾対象位置が追尾対象外であると判定することを特徴とする請求項2に記載の追尾装置。
The determination means includes
At least one of the similarities calculated by the similarity calculating means of the extracted block is smaller than a first predetermined value;
Among the plurality of blocks obtained from the target frame image, the similarities calculated by the similarity calculating unit for the blocks corresponding to the current tracking target position and the previous tracking target position are respectively Greater than the second predetermined value and the third predetermined value;
In this case, the tracking device according to claim 2, wherein the tracking target position detected by the detection unit is determined to be outside the tracking target.
前記検出手段は、更に前記今回の追尾対象位置の周辺のブロックの類似度に基づいて該今回の追尾対象位置を含む1つまたは複数のブロックからなる追尾対象領域を検出し、
前記判定手段は、更に、前記前回の追尾処理において検出された前回の追尾対象領域と前記今回の追尾対象領域とのサイズの変化量が第4の所定値よりも大きい場合に、前記検出手段が検出した追尾対象位置が追尾対象外であると判定することを特徴とする請求項3または4に記載の追尾装置。
The detection means further detects a tracking target region composed of one or a plurality of blocks including the current tracking target position based on the similarity of blocks around the current tracking target position,
The determination means further includes the detection means when the amount of change in size between the previous tracking target area detected in the previous tracking process and the current tracking target area is larger than a fourth predetermined value. The tracking device according to claim 3, wherein the detected tracking target position is determined to be outside the tracking target.
前記判定手段は、前記前回の追尾対象位置から前記今回の追尾対象位置への移動量が第5の所定値を超えている場合に前記サイズの変化量による判定を行うことを特徴とする請求項5に記載の追尾装置。   The determination means performs the determination based on the size change amount when a movement amount from the previous tracking target position to the current tracking target position exceeds a fifth predetermined value. 5. The tracking device according to 5. 前記判定手段は、前記抽出されたブロックのすべての類似度が前記第1の所定値以上である場合に、前記サイズの変化量による判定を行うことを特徴とする請求項5または6に記載の追尾装置。   7. The determination unit according to claim 5, wherein the determination unit performs determination based on the size change amount when all the similarities of the extracted blocks are equal to or greater than the first predetermined value. Tracking device. 前記特徴情報は、追尾対象の輝度情報、色情報、コントラスト情報、エッジ情報の少なくともいずれかであることを特徴とする請求項1乃至7のいずれか1項に記載の追尾装置。   The tracking device according to claim 1, wherein the feature information is at least one of luminance information, color information, contrast information, and edge information to be tracked. 前記判定手段により前記検出手段が検出した追尾対象位置が追尾対象外であると判定された場合、前記追尾対象に関する追尾処理を中止することを特徴とする請求項1乃至8のいずれか1項に記載の追尾装置。   9. The tracking process related to the tracking target is stopped when the determination unit determines that the tracking target position detected by the detection unit is outside the tracking target. 9. The tracking device described. 前記判定手段により前記検出手段が検出した追尾対象位置が追尾対象外であると判定された場合、前記前回の追尾位置が今回の追尾位置として決定されることを特徴とする請求項1乃至9のいずれか1項に記載の追尾装置。   10. The previous tracking position is determined as the current tracking position when the determination unit determines that the tracking target position detected by the detection unit is not a tracking target. The tracking device according to any one of the above. 動画像において追尾対象の位置を追尾する追尾装置の制御方法であって、
検出手段が、現在の処理対象のフレーム画像に対して前記追尾対象の特徴情報を用いた被写体の追尾処理を実行することにより、今回の追尾対象位置を検出する検出工程と、
抽出手段が、前記処理対象のフレーム画像から、前回の追尾対象位置と前記今回の追尾対象位置との間にある画像を抽出する抽出工程と、
判定手段が、前記抽出工程により抽出された画像と前記特徴情報との類似度に基づいて、前記検出工程で検出された前記今回の追尾対象位置が追尾対象外であるか否かを判定する判定工程と、
更新手段が、前記検出工程で検出された前記今回の追尾対象位置が追尾対象外でないと判定された場合に、前記今回の追尾対象位置を前記判定工程で使用される前回の追尾対象位置としてメモリに保持する保持工程と、を有することを特徴とする追尾装置の制御方法。
A control method of a tracking device that tracks the position of a tracking target in a moving image,
A detecting step for detecting a current tracking target position by executing subject tracking processing using the tracking target feature information on the current processing target frame image;
An extracting step for extracting an image between the previous tracking target position and the current tracking target position from the processing target frame image;
Determination means for determining whether or not the current tracking target position detected in the detection step is outside the tracking target based on the similarity between the image extracted in the extraction step and the feature information Process,
When it is determined that the current tracking target position detected in the detection step is not a tracking target, the updating unit stores the current tracking target position as a previous tracking target position used in the determination step. And a holding step for holding the tracking device.
コンピュータを、請求項1乃至9のいずれか1項に記載された追尾装置の各手段として機能させるコンピュータプログラム。   A computer program that causes a computer to function as each unit of the tracking device according to any one of claims 1 to 9.
JP2010291128A 2010-12-27 2010-12-27 TRACKING DEVICE AND ITS CONTROL METHOD Expired - Fee Related JP5759170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010291128A JP5759170B2 (en) 2010-12-27 2010-12-27 TRACKING DEVICE AND ITS CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010291128A JP5759170B2 (en) 2010-12-27 2010-12-27 TRACKING DEVICE AND ITS CONTROL METHOD

Publications (3)

Publication Number Publication Date
JP2012138013A true JP2012138013A (en) 2012-07-19
JP2012138013A5 JP2012138013A5 (en) 2014-02-13
JP5759170B2 JP5759170B2 (en) 2015-08-05

Family

ID=46675356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010291128A Expired - Fee Related JP5759170B2 (en) 2010-12-27 2010-12-27 TRACKING DEVICE AND ITS CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP5759170B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101426864B1 (en) 2013-01-17 2014-08-07 국방과학연구소 Region-based edge enhancement method for short-distance thermal target tracking
CN104346811A (en) * 2014-09-30 2015-02-11 深圳市华尊科技有限公司 Video-image-based target real-time tracking method and device
KR101732115B1 (en) * 2015-12-11 2017-05-02 주식회사 텍트원 Object tracking method and apparatus using monitoring cameras
JP2017151972A (en) * 2012-09-05 2017-08-31 インテル・コーポレーション Communication protocol between platform and image device
KR101897235B1 (en) * 2018-03-20 2018-09-10 키스톤앤컴퍼니(주) Intelligent screen monitoring system and method
WO2018235219A1 (en) * 2017-06-22 2018-12-27 日本電気株式会社 Self-location estimation method, self-location estimation device, and self-location estimation program
JP2019135618A (en) * 2018-02-05 2019-08-15 キヤノン株式会社 Information processing apparatus, system, method of controlling information processing apparatus, and program
CN110555362A (en) * 2018-05-31 2019-12-10 丰田自动车株式会社 Object recognition device
JP2020126383A (en) * 2019-02-04 2020-08-20 株式会社Qoncept Moving object detection device, moving object detection method, and moving body detection program
WO2022097489A1 (en) * 2020-11-09 2022-05-12 キヤノン株式会社 Image processing device, and image processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125288A (en) * 1998-10-12 2000-04-28 Hitachi Denshi Ltd Object tracking method and object tracking device
JP2004030188A (en) * 2002-06-25 2004-01-29 Matsushita Electric Works Ltd Method, apparatus and program for dividing image into areas
JP2005078231A (en) * 2003-08-29 2005-03-24 Mitsubishi Electric Corp Traffic flow measuring device
JP2005242703A (en) * 2004-02-26 2005-09-08 Toyota Motor Corp Image processing device and method
JP2005309746A (en) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> Method and program for tracking moving body, recording medium therefor, and moving body tracking device
JP2006508461A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection and face tracking
JP2007042072A (en) * 2005-07-05 2007-02-15 Omron Corp Tracking apparatus
JP2011181014A (en) * 2010-03-03 2011-09-15 Secom Co Ltd Moving-object tracking device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125288A (en) * 1998-10-12 2000-04-28 Hitachi Denshi Ltd Object tracking method and object tracking device
JP2004030188A (en) * 2002-06-25 2004-01-29 Matsushita Electric Works Ltd Method, apparatus and program for dividing image into areas
JP2006508461A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection and face tracking
JP2005078231A (en) * 2003-08-29 2005-03-24 Mitsubishi Electric Corp Traffic flow measuring device
JP2005242703A (en) * 2004-02-26 2005-09-08 Toyota Motor Corp Image processing device and method
JP2005309746A (en) * 2004-04-21 2005-11-04 Nippon Telegr & Teleph Corp <Ntt> Method and program for tracking moving body, recording medium therefor, and moving body tracking device
JP2007042072A (en) * 2005-07-05 2007-02-15 Omron Corp Tracking apparatus
JP2011181014A (en) * 2010-03-03 2011-09-15 Secom Co Ltd Moving-object tracking device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10321009B2 (en) 2012-09-05 2019-06-11 Intel Corporation Protocol for communications between platforms and image devices
JP2017151972A (en) * 2012-09-05 2017-08-31 インテル・コーポレーション Communication protocol between platform and image device
KR101426864B1 (en) 2013-01-17 2014-08-07 국방과학연구소 Region-based edge enhancement method for short-distance thermal target tracking
CN104346811A (en) * 2014-09-30 2015-02-11 深圳市华尊科技有限公司 Video-image-based target real-time tracking method and device
KR101732115B1 (en) * 2015-12-11 2017-05-02 주식회사 텍트원 Object tracking method and apparatus using monitoring cameras
WO2018235219A1 (en) * 2017-06-22 2018-12-27 日本電気株式会社 Self-location estimation method, self-location estimation device, and self-location estimation program
JPWO2018235219A1 (en) * 2017-06-22 2020-03-19 日本電気株式会社 Self-location estimation method, self-location estimation device, and self-location estimation program
US11195298B2 (en) 2018-02-05 2021-12-07 Canon Kabushiki Kaisha Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium
JP2019135618A (en) * 2018-02-05 2019-08-15 キヤノン株式会社 Information processing apparatus, system, method of controlling information processing apparatus, and program
JP7104523B2 (en) 2018-02-05 2022-07-21 キヤノン株式会社 Information processing equipment, systems, information processing equipment control methods, and programs
KR101897235B1 (en) * 2018-03-20 2018-09-10 키스톤앤컴퍼니(주) Intelligent screen monitoring system and method
CN110555362A (en) * 2018-05-31 2019-12-10 丰田自动车株式会社 Object recognition device
JP2020126383A (en) * 2019-02-04 2020-08-20 株式会社Qoncept Moving object detection device, moving object detection method, and moving body detection program
US11587240B2 (en) 2019-02-04 2023-02-21 Qoncept, Inc. Moving body detecting device, moving body detecting method, and moving body detecting program
WO2022097489A1 (en) * 2020-11-09 2022-05-12 キヤノン株式会社 Image processing device, and image processing method

Also Published As

Publication number Publication date
JP5759170B2 (en) 2015-08-05

Similar Documents

Publication Publication Date Title
JP5759170B2 (en) TRACKING DEVICE AND ITS CONTROL METHOD
US7430369B2 (en) Image capture apparatus and control method therefor
JP4182117B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US8199203B2 (en) Imaging apparatus and imaging method with face detection based on scene recognition results
US8139136B2 (en) Image pickup apparatus, control method of image pickup apparatus and image pickup apparatus having function to detect specific subject
US8797423B2 (en) System for and method of controlling a parameter used for detecting an objective body in an image and computer program
US8411159B2 (en) Method of detecting specific object region and digital camera
US20080193119A1 (en) Image sensing apparatus and image sensing method
US8830374B2 (en) Image capture device with first and second detecting sections for detecting features
JP5317737B2 (en) Imaging apparatus, control method thereof, and program
TW201316760A (en) Imaging device, and method and program for controlling same
JP2009177271A (en) Imaging apparatus, and control method and program thereof
JP2008270896A (en) Imaging device and program thereof
JP5064926B2 (en) Imaging apparatus and control method thereof
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
US7796163B2 (en) System for and method of taking image based on objective body in a taken image
JP2016143035A (en) Focus adjustment device and focus adjustment method
JP5036334B2 (en) Imaging apparatus, imaging method, and program for causing computer to execute the method
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP2008054297A (en) System for and method of photographing image, and computer program
JP3985005B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD
JP5383361B2 (en) Imaging apparatus, control method therefor, and program
JP2008160701A (en) Camera and photographic control program for the camera
JP5448391B2 (en) Imaging apparatus and red-eye correction method
JP4789776B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150605

R151 Written notification of patent or utility model registration

Ref document number: 5759170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees