JP2014093711A - Tracking apparatus, tracking method, and program - Google Patents

Tracking apparatus, tracking method, and program Download PDF

Info

Publication number
JP2014093711A
JP2014093711A JP2012244380A JP2012244380A JP2014093711A JP 2014093711 A JP2014093711 A JP 2014093711A JP 2012244380 A JP2012244380 A JP 2012244380A JP 2012244380 A JP2012244380 A JP 2012244380A JP 2014093711 A JP2014093711 A JP 2014093711A
Authority
JP
Japan
Prior art keywords
target object
tracking
similar
frame image
lost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244380A
Other languages
Japanese (ja)
Other versions
JP6000809B2 (en
Inventor
Naoto Kimura
直人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012244380A priority Critical patent/JP6000809B2/en
Publication of JP2014093711A publication Critical patent/JP2014093711A/en
Application granted granted Critical
Publication of JP6000809B2 publication Critical patent/JP6000809B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To prevent wrongly tracking of a similar object when losing sight of a target object and performing restoration processing.SOLUTION: When it is determined that the sight of the target object is lost, a tracking apparatus searches the frame image for an object with a feature quantity similar to that of the target object, and stores the result of the search in a first memory 112. Then, in the next frame image, the similar object is tracked, and the restoration processing of the target object is performed. At this time, the apparatus searches, for the target object, areas except an area including the similar object tracked in the process of tracking the similar object.

Description

本発明は追尾装置、追尾方法及びプログラムに関し、特に、見失った目標物体を探索するために用いて好適な技術に関する。   The present invention relates to a tracking device, a tracking method, and a program, and more particularly, to a technique suitable for use in searching for a target object that has been lost.

従来、目標物体を追尾する方法として、以下の方法が知られている。まず、時間的に前のフレーム画像内の目標物体の領域から算出した特徴量に対し、現在のフレーム画像内から特徴量が類似している領域を探索する。そして、探索の結果、特徴量が類似している領域を現在のフレーム画像の目標物体の領域とすることにより、フレーム間で追尾を実現している。   Conventionally, the following methods are known as methods for tracking a target object. First, a region having a similar feature amount in the current frame image is searched for the feature amount calculated from the region of the target object in the previous frame image in terms of time. As a result of the search, tracking is realized between frames by setting a region having a similar feature amount as a target object region of the current frame image.

ところが、シーンによっては、目標物体が画像の外に出てしまったり、別の物体が横切って目標物体が隠れてしまったりするなど、画像内から目標物体を見失ってしまう場合がある。従来は、上記の問題の対策として、目標物体の特徴量がフレーム間で大きく変動した場合は画像内から目標物体を見失ったと判断し、目標物体を見つけるまで数フレームかけて追尾時よりも広い範囲で画像内から目標物体と特徴量が類似している領域を探索する。そして、目標物体の領域と特徴量が類似している領域を見つけた場合に、見つけた領域を目標物体の領域として次フレーム画像から追尾に復帰させる処理、いわゆる復帰処理を行うことにより画像内から目標物体を見失ってしまう問題を解決していた。また、例えば特許文献1には、複数の目標物体を追尾する際にそのうちの2つの目標物体が交差した時の対策が開示されている。   However, depending on the scene, the target object may be lost from the image, for example, the target object may be outside the image, or another object may be crossed and the target object may be hidden. Conventionally, as a countermeasure for the above problem, if the feature value of the target object fluctuates greatly between frames, it is judged that the target object has been lost from the image, and it takes several frames until the target object is found. In the image, a region having a feature quantity similar to the target object is searched from the image. Then, when a region whose feature amount is similar to that of the target object region is found, a process of returning to the tracking from the next frame image as the target object region is performed, so-called return processing is performed from within the image. It solved the problem of losing sight of the target object. Further, for example, Patent Document 1 discloses a countermeasure when two target objects intersect when tracking a plurality of target objects.

特開2010−117946号公報JP 2010-117946 A

しかしながら、シーンによっては、フレーム画像内に目標物体の領域と特徴量が類似する領域をもつ類似物体が存在する場合もある。このような場合には、目標物体を現フレーム画像内で見失い、次のフレーム画像に対し復帰処理を行った結果、類似物体を目標物体と誤って追尾してしまう可能性がある。また、特許文献1に記載の方法は、2つの目標物体が交差した時の対策として、交差している目標物体の領域同士の特徴量の差異を用いているため、同様に類似物体を目標物体と誤って追尾してしまう可能性がある。   However, depending on the scene, there may be a similar object having a region whose feature quantity is similar to that of the target object region in the frame image. In such a case, as a result of losing sight of the target object in the current frame image and performing the return processing on the next frame image, there is a possibility that a similar object is tracked by mistake as the target object. In addition, the method described in Patent Document 1 uses a difference in feature amount between regions of target objects that intersect each other as a countermeasure when two target objects intersect. There is a possibility of tracking by mistake.

本発明は前述の問題点に鑑み、目標物体を見失って復帰処理を行う際に、誤って類似物体を追尾してしまうことを防止できるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to prevent a similar object from being tracked by mistake when performing a return process while losing sight of a target object.

本発明の追尾装置は、フレーム画像間で目標物体を追尾する目標物体追尾手段と、前記フレーム画像から前記目標物体と特徴量が類似する物体を探索する探索手段と、前記フレーム画像間で前記探索手段により探索された物体と特徴量が類似する類似物体を追尾する類似物体追尾手段と、前記目標物体追尾手段による追尾の結果、前記目標物体を見失ったかどうかを判定する判定手段と、前記判定手段により前記目標物体を見失ったと判定した場合に、見失ったと判定されたフレーム画像、もしくは時間的に後のフレーム画像から前記目標物体を探索する復帰手段とを有し、前記復帰手段は、前記類似物体追尾手段によって追尾された類似物体を含む領域を除いて前記目標物体を探索することを特徴とする。   The tracking device of the present invention includes a target object tracking unit that tracks a target object between frame images, a search unit that searches for an object having a feature quantity similar to the target object from the frame image, and the search between the frame images. Similar object tracking means for tracking a similar object whose feature quantity is similar to the object searched by the means, determination means for determining whether the target object is lost as a result of tracking by the target object tracking means, and the determination means And when the target object is determined to have lost sight, a frame image determined to have been lost or a return means for searching for the target object from a temporally subsequent frame image, the return means includes the similar object The target object is searched for except for a region including a similar object tracked by the tracking means.

本発明によれば、目標物体を見失って復帰処理を行う際に、誤って類似物体を追尾してしまうことを防止することができる。   ADVANTAGE OF THE INVENTION According to this invention, when losing sight of a target object and performing a return process, it can prevent tracking a similar object accidentally.

実施形態に係る撮像装置100の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device 100 which concerns on embodiment. 実施形態における追尾処理部による処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence by the tracking process part in embodiment. 領域の特徴量を説明するための図である。It is a figure for demonstrating the feature-value of an area | region. 目標物体の復帰処理で用いる探索範囲を説明するための図である。It is a figure for demonstrating the search range used by the return process of a target object. 目標物体の領域に対する探索範囲を説明するための図である。It is a figure for demonstrating the search range with respect to the area | region of a target object. 図2のステップS207の詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence of step S207 of FIG. 図2のステップS215の詳細な処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process sequence of step S215 of FIG.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
図1は、本実施形態に係る撮像装置100の構成例を示すブロック図である。
図1において、CPU101は、内部バス102により接続された各ブロックの制御を行う。また、CPU101に接続された操作部103は、ユーザーによる各種ボタン等からの入力を受付け、CPU101は、ユーザーの指示に応じて各種処理を行うことができる。追尾を開始する際には、操作部103からCPU101へ情報を入力することによって、画像内にいる被写体を目標物体として設定することができる。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus 100 according to the present embodiment.
In FIG. 1, the CPU 101 controls each block connected by the internal bus 102. The operation unit 103 connected to the CPU 101 accepts input from various buttons by the user, and the CPU 101 can perform various processes in accordance with user instructions. When tracking is started, a subject in the image can be set as a target object by inputting information from the operation unit 103 to the CPU 101.

次に、画像を取得する処理について説明する。
フォーカスレンズ104を通過した光は、撮像素子106の撮像面上に結像し、光学像が電気信号(アナログ信号)に変換される。レンズ制御部107は、フォーカスレンズ104及び絞り105を駆動して、フォーカス及び絞り量の調節を行う。A/D変換部108は、撮像素子106から送られてきたアナログ信号をデジタル信号(画像信号)に変換する。画像処理部109は、A/D変換部108から画像信号を読み出し、各種の信号処理を行う。
Next, processing for acquiring an image will be described.
The light that has passed through the focus lens 104 forms an image on the imaging surface of the imaging element 106, and the optical image is converted into an electrical signal (analog signal). The lens control unit 107 drives the focus lens 104 and the diaphragm 105 to adjust the focus and the diaphragm amount. The A / D converter 108 converts the analog signal sent from the image sensor 106 into a digital signal (image signal). The image processing unit 109 reads an image signal from the A / D conversion unit 108 and performs various signal processing.

追尾処理部110は、まず、画像処理部109から出力された現在のフレーム画像(以下、現フレーム画像)と、フレームメモリ111に記憶されている時間的に前のフレーム画像(以下、前フレーム画像)とを読み出す。さらに、第1のメモリ112に記憶されている、時間的に前のフレームで行った追尾処理部110の処理結果のデータを読み出す。そして、フレーム画像間で、読み出したデータを元にユーザーが目標としている物体(以下、目標物体)の追尾を行い、現在のフレームの追尾処理部110の処理結果のデータを第1のメモリ112に記憶する。追尾処理部110の詳細な処理については図2を参照しながら後述する。   First, the tracking processing unit 110 first outputs the current frame image (hereinafter, the current frame image) output from the image processing unit 109 and the temporally previous frame image (hereinafter, the previous frame image) stored in the frame memory 111. ) And. Further, the data of the processing result of the tracking processing unit 110 that is stored in the first memory 112 and performed in the previous frame in time is read out. Then, between the frame images, the target object (hereinafter referred to as target object) is tracked based on the read data, and the processing result data of the tracking processing unit 110 of the current frame is stored in the first memory 112. Remember. Detailed processing of the tracking processing unit 110 will be described later with reference to FIG.

入力された画像信号を記録する場合には、画像処理部109から出力された画像信号をCODEC113により符号化し、符号化データが第2のメモリ114に書き込まれる。そして、記録媒体制御部115は、SDカードなどの記録媒体116へ符号化データを記録する。また、記録された画像信号を再生する時には、記録媒体制御部115は、記録媒体116から符号化データを読み出して第2のメモリ114に書き込み、CODEC113により符号化データを復号化する。そして、復号化した画像信号を描画処理部117へ送る。   When recording the input image signal, the image signal output from the image processing unit 109 is encoded by the CODEC 113, and the encoded data is written in the second memory 114. Then, the recording medium control unit 115 records the encoded data on the recording medium 116 such as an SD card. When reproducing the recorded image signal, the recording medium control unit 115 reads out the encoded data from the recording medium 116 and writes it into the second memory 114, and decodes the encoded data by the CODEC 113. Then, the decoded image signal is sent to the drawing processing unit 117.

描画処理部117は、画像処理部109またはCODEC113から画像信号を受け取り、CPU101の指示に基づいて画像に文字や図形を描画し、描画後の画像信号を第3のメモリ118に書き込む。また、描画処理部117は、現フレーム画像の追尾処理部110の処理結果から現フレーム画像の目標物体の領域に追尾枠を描画させる処理も行う。表示部119は、第3のメモリ118から画像信号を読み出して、不図示のLCDなどに出力して表示させる制御を行う。   The drawing processing unit 117 receives an image signal from the image processing unit 109 or the CODEC 113, draws characters or figures on the image based on an instruction from the CPU 101, and writes the image signal after drawing into the third memory 118. The drawing processing unit 117 also performs processing for drawing a tracking frame in the target object region of the current frame image based on the processing result of the tracking processing unit 110 for the current frame image. The display unit 119 performs control to read out an image signal from the third memory 118 and output and display the image signal on an LCD (not shown) or the like.

次に、図2を参照しながら追尾処理部110の動作について説明する。図2は、本実施形態における追尾処理部110の処理手順の一例を示すフローチャートである。
まず、ステップS201において、画像処理部109から現フレームの画像信号を入力する。次に、ステップS202において、フレームメモリ111から前フレームの画像信号を読み出す。そして、ステップS203において、第1のメモリ112から前フレームの追尾処理部110の処理結果のデータを読み出す。
Next, the operation of the tracking processing unit 110 will be described with reference to FIG. FIG. 2 is a flowchart illustrating an example of a processing procedure of the tracking processing unit 110 in the present embodiment.
First, in step S201, an image signal of the current frame is input from the image processing unit 109. Next, in step S202, the image signal of the previous frame is read from the frame memory 111. In step S203, data of the processing result of the tracking processing unit 110 of the previous frame is read from the first memory 112.

ここで、前フレームの追尾処理部110の処理結果のデータとは、前フレーム画像上の目標物体の領域、あるいは目標物体の領域と特徴量が類似する物体(以下、類似物体)の領域の座標、及びFlagの値の情報である。Flagの値は、下記の様な状態を示している。   Here, the data of the processing result of the tracking processing unit 110 of the previous frame is the coordinates of the region of the target object on the previous frame image, or the region of the object (hereinafter referred to as a similar object) whose feature quantity is similar to the target object region. , And Flag information. The value of Flag indicates the following state.

Flagの値が0の場合は、目標物体を見失っていない状態を示しており、Flagの値が1の場合は、目標物体を見失っており、類似物体が画像内に存在しない状態を示している。また、Flagの値が2の場合は、目標物体を見失っているが、類似物体が画像内に存在する状態を示している。なお、目標物体の追尾を開始したフレーム時のFlagの値、つまりFlagの初期値は0とする。また、0、1、2以外のFlagの値は存在しないものとする。   A flag value of 0 indicates that the target object has not been lost. A flag value of 1 indicates that the target object has been lost and no similar object is present in the image. . A flag value of 2 indicates that the target object has been lost, but a similar object exists in the image. Note that the Flag value at the time of starting tracking of the target object, that is, the initial value of Flag is set to 0. Also, it is assumed that there is no flag value other than 0, 1, and 2.

ステップS204以降は、ステップS203で読み出したデータの一つであるFlagの値によって、現フレーム画像の処理を決定している。まず、Flagの値が0であり、目標物体を見失っていない状態の場合に現フレーム画像上で行う処理について説明する。   After step S204, processing of the current frame image is determined based on the value of Flag, which is one of the data read in step S203. First, a process performed on the current frame image when the value of Flag is 0 and the target object is not lost will be described.

ステップS204において、前フレーム画像のFlagの値が0であるか否かを判定する。この判定の結果、Flagの値が0である場合は、ステップS205に進み、Flagの値が0でない場合はステップS212に進む。ステップS205においては、前フレーム画像の目標物体の領域の特徴量を用いて現フレーム画像上で目標物体を探索する。   In step S204, it is determined whether or not the Flag value of the previous frame image is zero. As a result of the determination, if the Flag value is 0, the process proceeds to Step S205, and if the Flag value is not 0, the process proceeds to Step S212. In step S205, the target object is searched on the current frame image using the feature amount of the target object region in the previous frame image.

ここで、図5を参照しながら、目標物体の探索方法について説明する。図5(a)に示す前フレーム画像では、追尾対象となる目標物体501に対し、目標物体の領域502の位置は、左上座標(X's,Y's)と右下座標(X'e,Y'e)とによって表される。そこで、まず、現フレーム画像上に探索範囲を設定する。   Here, a method for searching for a target object will be described with reference to FIG. In the previous frame image shown in FIG. 5A, the position of the target object region 502 with respect to the target object 501 to be tracked is the upper left coordinates (X ′s, Y ′s) and the lower right coordinates (X′e). , Y′e). Therefore, first, a search range is set on the current frame image.

図5(b)に示すように、探索範囲の中心となる領域506の位置は、前フレーム画像の目標物体の領域の座標と等しい左上座標(X's,Y's)と右下座標(X'e,Y'e)とによって表される。以下、現フレーム画像における探索範囲の中心となる領域を中心領域と呼称する。   As shown in FIG. 5B, the position of the area 506 serving as the center of the search range is the upper left coordinates (X ′s, Y ′s) and lower right coordinates ( X′e, Y′e). Hereinafter, a region that is the center of the search range in the current frame image is referred to as a central region.

中心領域506の位置を基準に、探索範囲505は、予め決められた値S_X、S_Yに基づいて、左上座標(X's−S_X,Y's−S_Y)と右下座標(X'e+S_X,Y'e+S_Y)とによって設定される。次に、現フレーム画像で設定された探索範囲505に対し、前フレーム画像の目標物体の領域502に最も類似する特徴量をもつ位置を探索し、前記位置を指し示す動きベクトルを検出する。本実施形態では特徴量として、輝度信号を用いる。   Based on the position of the center region 506, the search range 505 is based on predetermined values S_X and S_Y, and the upper left coordinates (X′s−S_X, Y′s−S_Y) and lower right coordinates (X′e + S_X, Y′e + S_Y). Next, a position having a feature quantity most similar to the target object area 502 in the previous frame image is searched for the search range 505 set in the current frame image, and a motion vector indicating the position is detected. In the present embodiment, a luminance signal is used as the feature amount.

ここで、図3を参照しながら本実施形態で用いる特徴量について説明する。図3(a)に示す前フレーム画像の目標物体301の領域302の特徴量をP0とすると、特徴量P0は領域内の輝度信号303全てを指しており、特徴量P0(x,y)は、目標物体の領域上の座標(x,y)の位置にある画素の輝度信号の特徴量である。目標物体の領域の水平画素数をW、垂直画素数をHとすると、特徴量P0は以下の式(1)の様になる。
P0={P0(0,0),P0(1,0),・・・P0(W−1,H−1)}
・・・・(1)
Here, feature amounts used in the present embodiment will be described with reference to FIG. If the feature amount of the region 302 of the target object 301 in the previous frame image shown in FIG. 3A is P0, the feature amount P0 indicates all the luminance signals 303 in the region, and the feature amount P0 (x, y) is , The feature value of the luminance signal of the pixel at the position of the coordinates (x, y) on the target object region. When the number of horizontal pixels in the target object region is W and the number of vertical pixels is H, the feature amount P0 is expressed by the following equation (1).
P0 = {P0 (0,0), P0 (1,0),... P0 (W-1, H-1)}
(1)

また、本実施形態では、目標物体の領域と特徴量が最も類似する領域を探索する方法として差分絶対和、いわゆるSAD値を用いる。図3(b)に示す現フレーム画像の探索範囲304内で、現在探索の対象である領域305の特徴量をP1とすると、特徴量P1は領域内の輝度信号306全てを指す。また、特徴量P1(x,y)は、探索の対象である領域上の座標(x,y)の位置にある画素の輝度信号の特徴量である。目標物体の領域と同様、現在探索の対象である領域の水平画素数をW、垂直画素数をHとすると、現在探索の対象である領域305と目標物体の領域302との間のSAD値DPは以下の式(2)により算出される。   In the present embodiment, an absolute difference sum, that is, a so-called SAD value is used as a method for searching for a region whose feature amount is most similar to the region of the target object. In the search range 304 of the current frame image shown in FIG. 3B, if the feature amount of the region 305 that is the current search target is P1, the feature amount P1 indicates all the luminance signals 306 in the region. The feature amount P1 (x, y) is the feature amount of the luminance signal of the pixel at the position of the coordinate (x, y) on the search target area. Similar to the target object area, if the horizontal pixel number of the current search target area is W and the vertical pixel number is H, the SAD value DP between the current search target area 305 and the target object area 302. Is calculated by the following equation (2).

Figure 2014093711
Figure 2014093711

この探索の対象である領域305は、探索範囲304の左上から順に1画素ずつずらしながら、目標物体の領域302との間のSAD値DPの演算が行われる。探索範囲304内で算出したSAD値DPが最小であった領域が、目標物体の領域と特徴量が最も類似する領域となる。このときの探索の対象である領域305と目標物体の領域302とのズレ量を、目標物体の動きベクトルとする。   The SAD value DP between the search target area 302 and the target object area 302 is calculated while shifting the area 305 one pixel at a time from the upper left of the search range 304. The region where the SAD value DP calculated within the search range 304 is the smallest is the region whose feature quantity is most similar to the target object region. The amount of deviation between the region 305 to be searched at this time and the region 302 of the target object is taken as the motion vector of the target object.

最後に、前フレーム画像の目標物体の領域の座標に、検出された動きベクトルの成分を加算することによって、前フレーム画像の目標物体の領域に最も類似する特徴量をもつ領域の位置を取得する。以下、前フレーム画像の目標物体の領域に最も類似する特徴量をもつ領域を目標物体の候補領域と呼称する。   Finally, by adding the detected motion vector component to the coordinates of the target object region in the previous frame image, the position of the region having the most similar feature amount to the target object region in the previous frame image is obtained. . Hereinafter, an area having a feature amount most similar to the area of the target object in the previous frame image is referred to as a target object candidate area.

図5(c)に示すように、中心領域511の位置を表す左上座標(X's,Y's)と右下座標(X'e,Y'e)とに対し、以下の式(3)に従って検出された動きベクトル517の成分(VX,VY)を加算する。これにより、現フレーム画像における目標物体の候補領域514の位置は左上座標(Xst,Yst)と右下座標(Xet,Yet)とによって表される。   As shown in FIG. 5C, for the upper left coordinates (X ′s, Y ′s) and the lower right coordinates (X′e, Y′e) representing the position of the center region 511, the following expression (3 The components (VX, VY) of the motion vector 517 detected in accordance with () are added. Accordingly, the position of the target object candidate region 514 in the current frame image is represented by the upper left coordinates (Xst, Yst) and the lower right coordinates (Xet, Yet).

Figure 2014093711
Figure 2014093711

図2の説明に戻り、ステップS205で目標物体追尾処理を行った後、ステップS206においては、現フレーム画像上で目標物体を見失ったかどうかを判定する。判定の際には、前フレーム画像の目標物体の領域の特徴量と、現フレーム画像の目標物体の候補領域の特徴量とを用いる。   Returning to the description of FIG. 2, after the target object tracking process is performed in step S205, it is determined in step S206 whether or not the target object has been lost on the current frame image. In the determination, the feature amount of the target object region in the previous frame image and the feature amount of the target object candidate region in the current frame image are used.

ここで、現フレーム画像の目標物体の候補領域の特徴量をP1とし、前フレーム画像の目標物体の領域の特徴量をP0とする。そして、以下の式(4)に従って特徴量P1、P0の差分絶対和DPに対し、閾値TH判定を行う。そして、差分絶対和DPが閾値TH以上である場合は、目標物体を見失ったと判定し、ステップS207へ進む。一方、差分絶対和DPが閾値TH未満である場合は、目標物体を見失っていないと判定し、目標物体の候補領域は、現フレーム画像上の目標物体の領域となっていることから、ステップS211に進む。そして、ステップS211において、値を0としたFlagと、目標物体の座標とのデータを現フレーム画像の処理結果として第1のメモリ112に保存し、現フレーム画像の追尾処理部110の処理を終了する。   Here, the feature amount of the target object candidate region in the current frame image is P1, and the feature amount of the target object region in the previous frame image is P0. Then, the threshold value TH is determined for the absolute difference DP of the feature amounts P1 and P0 according to the following equation (4). If the absolute difference DP is greater than or equal to the threshold value TH, it is determined that the target object has been lost, and the process proceeds to step S207. On the other hand, if the difference absolute sum DP is less than the threshold value TH, it is determined that the target object is not lost, and the target object candidate area is the target object area on the current frame image. Proceed to In step S211, the data of the flag having a value of 0 and the coordinates of the target object are stored in the first memory 112 as the processing result of the current frame image, and the processing of the tracking processing unit 110 of the current frame image is terminated. To do.

Figure 2014093711
Figure 2014093711

ここで、閾値THは、過去の数フレームの目標物体追尾処理で得られた、前フレーム画像の目標物体の領域と現フレーム画像の目標物体候補の領域との特徴量のSAD値を平均した値などを用いるとよい。   Here, the threshold TH is a value obtained by averaging the SAD values of the feature amounts of the target object area of the previous frame image and the target object candidate area of the current frame image, which are obtained by the target object tracking process of the past several frames. It is good to use.

ステップS207においては、現フレーム画像上に類似物体が存在するかどうか探索する。この類似物体探索処理については、図6を用いて後ほど詳細に説明する。そして、ステップS208において、ステップS207の探索の結果、類似物体が存在したかどうかを判定する。この判定の結果、類似物体が存在した場合は、ステップS209に進む。一方、類似物体が存在しなかった場合は、ステップS210に進む。   In step S207, it is searched whether there is a similar object on the current frame image. This similar object search process will be described later in detail with reference to FIG. In step S208, it is determined whether a similar object exists as a result of the search in step S207. As a result of the determination, if a similar object exists, the process proceeds to step S209. On the other hand, if no similar object exists, the process proceeds to step S210.

ステップS209においては、値を2としたFlagと、類似物体の座標とのデータを現フレーム画像の処理結果として第1のメモリ112に保存し、現フレーム画像の追尾処理部110の処理を終了する。一方、ステップS210においては、値を1としたFlagのデータを現フレーム画像の処理結果として第1のメモリ112に保存し、現フレーム画像の追尾処理部110の処理を終了する。   In step S209, the data of the flag having a value of 2 and the coordinates of the similar object are stored in the first memory 112 as the processing result of the current frame image, and the processing of the tracking processing unit 110 of the current frame image is ended. . On the other hand, in step S210, Flag data with a value of 1 is stored in the first memory 112 as the processing result of the current frame image, and the processing of the tracking processing unit 110 of the current frame image ends.

一方、ステップS204の判定の結果、Flagの値が0でない場合は、ステップS212において、Flagの値が1か2かを判定する。この判定の結果、ステップS212でFlagの値が2の場合は、ステップS213に進み、Flagの値が1である場合は、ステップS215に進む。   On the other hand, if the flag value is not 0 as a result of the determination in step S204, it is determined whether the flag value is 1 or 2 in step S212. As a result of this determination, if the Flag value is 2 in Step S212, the process proceeds to Step S213, and if the Flag value is 1, the process proceeds to Step S215.

ステップS213においては、前フレーム画像の類似物体の領域の特徴量を用いて現フレーム画像上の類似物体を探索することによって類似物体追尾処理を行う。なお、類似物体の探索方法については、ステップS205の目標物体追尾処理と同様であり、目標物体を類似物体に置き換えただけなので説明を省略する。   In step S213, the similar object tracking process is performed by searching for a similar object on the current frame image using the feature amount of the similar object region in the previous frame image. The similar object search method is the same as the target object tracking process in step S205, and the description is omitted because only the target object is replaced with the similar object.

次に、ステップS214において、現フレーム画像上で類似物体を見失ったかどうか判定する。判定方法については、ステップS206で目標物体を見失ったかどうかを判定する処理と同様であり、目標物体を類似物体に置き換えただけなので説明を省略する。なお、この判定結果は、後述するステップS215の目標物体復帰処理で用いられ、いずれの場合であっても次のステップS215に進む。   Next, in step S214, it is determined whether a similar object has been lost on the current frame image. The determination method is the same as the process of determining whether or not the target object is lost in step S206, and the description is omitted because the target object is simply replaced with a similar object. This determination result is used in a target object return process in step S215 to be described later, and in either case, the process proceeds to the next step S215.

次に、ステップS215において、現フレーム画像上で目標物体を探索する。目標物体復帰処理については、図7を用いて後ほど詳細に説明を行う。そして、ステップS216において、ステップS215の目標物体復帰処理の結果、目標物体が存在したどうかを判定する。この判定の結果、目標物体が存在した場合にはステップS211に進み、目標物体が存在しなかった場合には、ステップS217に進む。   Next, in step S215, the target object is searched on the current frame image. The target object return process will be described in detail later with reference to FIG. In step S216, it is determined whether the target object exists as a result of the target object return process in step S215. As a result of the determination, if the target object exists, the process proceeds to step S211. If the target object does not exist, the process proceeds to step S217.

ステップS217においては、現フレーム画像内に類似物体が存在するどうかを判定する。この判定の結果、類似物体が存在する場合にはステップS218に進み、類似物体が存在しない場合にはステップS219に進む。   In step S217, it is determined whether a similar object exists in the current frame image. As a result of the determination, if a similar object exists, the process proceeds to step S218. If a similar object does not exist, the process proceeds to step S219.

ステップS218においては、値を2としたFlagと、類似物体の領域の座標とのデータを現フレーム画像の処理結果として第1のメモリ112に保存し、現フレームの追尾処理部110の処理を終了する。一方、ステップS219においては、値を1としたFlagのデータを現フレーム画像の処理結果として第1のメモリ112に保存し、現フレームの追尾処理部110の処理を終了する。   In step S218, data of the flag having a value of 2 and the coordinates of the region of the similar object are stored in the first memory 112 as the processing result of the current frame image, and the processing of the tracking processing unit 110 of the current frame is terminated. To do. On the other hand, in step S219, Flag data with a value of 1 is stored in the first memory 112 as the processing result of the current frame image, and the processing of the tracking processing unit 110 for the current frame is terminated.

次に、図6を参照しながら、図2のステップS207の類似物体探索処理について詳細に説明する。図6は、図2のステップS207の詳細な処理手順の一例を示すフローチャートである。
まず、ステップS601において、後述するステップS602で用いる類似物体の探索範囲を設定する。まず、目標物体を見失う前のフレームである1つ前のフレーム画像上から、ステップS205の目標物体追尾処理で目標物体の探索を行った時に使用した探索範囲からさらに任意で広くとった範囲を除外する。そして、除外後の範囲を類似物体の探索範囲として設定し、ステップS602へ進む。
Next, the similar object search process in step S207 of FIG. 2 will be described in detail with reference to FIG. FIG. 6 is a flowchart showing an example of a detailed processing procedure in step S207 of FIG.
First, in step S601, a similar object search range used in step S602 described later is set. First, a range that is arbitrarily wider than the search range used when searching for the target object in the target object tracking process in step S205 is excluded from the previous frame image that is the frame before losing sight of the target object. To do. Then, the range after exclusion is set as a similar object search range, and the process proceeds to step S602.

次に、ステップS602において、1つ前のフレーム画像上のステップS601で設定した探索範囲内に、同じフレーム画像上の目標物体と類似する物体が存在するかどうか探索する。この時の探索方法は図2のステップS205の目標物体追尾処理と同様の演算を行い、目標物体の領域との間のSAD値DPが閾値TH未満である領域を探索する。類似物体の探索を行った後、ステップS603へ進む。   Next, in step S602, a search is performed as to whether an object similar to the target object on the same frame image exists within the search range set in step S601 on the previous frame image. The search method at this time performs the same calculation as the target object tracking process in step S205 of FIG. 2, and searches for a region where the SAD value DP between the target object region and the target object region is less than the threshold value TH. After searching for a similar object, the process proceeds to step S603.

次に、ステップS603において、ステップS602で得られた探索結果の領域が、類似物体の領域であるかどうかを判定する。具体的には、まず、式(5)によりステップS205で算出した1つ前のフレーム画像の目標物体候補の領域の特徴量P1と2つ前のフレーム画像の目標物体の領域の特徴量P0との差分絶対和DP1を算出する。次いで、ステップS602で算出した1つ前のフレーム画像の探索結果の領域の特徴量P2と2つ前のフレーム画像の目標物体の領域の特徴量P0との差分絶対和DP2を算出する。そして、算出した差分絶対和DP1とDP2を比較する。この比較の結果、差分絶対和DP2の値が差分絶対和DP1の値より大きい場合は、探索結果の領域は類似物体の領域ではないと判定し、類似物体探索処理を終了する。一方、差分絶対和DP2の値が差分絶対和DPの値以下である場合、探索結果の領域は類似物体の領域と判定し、ステップS604へ進む。   Next, in step S603, it is determined whether the area of the search result obtained in step S602 is a similar object area. Specifically, first, the feature amount P1 of the target object candidate region of the previous frame image calculated in step S205 by the equation (5) and the target object region feature amount P0 of the second previous frame image The absolute difference sum DP1 is calculated. Next, the absolute difference sum DP2 between the feature amount P2 of the area of the search result of the previous frame image calculated in step S602 and the feature quantity P0 of the target object region of the previous frame image is calculated. Then, the calculated difference absolute sum DP1 and DP2 are compared. As a result of this comparison, if the value of the absolute difference sum DP2 is larger than the value of the absolute difference sum DP1, it is determined that the area of the search result is not an area of a similar object, and the similar object search process is terminated. On the other hand, if the value of the absolute difference sum DP2 is equal to or smaller than the value of the absolute difference sum DP, the search result area is determined to be an area of a similar object, and the process proceeds to step S604.

Figure 2014093711
Figure 2014093711

ステップS604においては、ステップS602で用いた1つ前のフレーム画像上の類似物体を探索する際の探索範囲から、ステップS603で判定された類似領域の領域を除外して、探索範囲を設定し直す。そして、ステップS603で判定された類似領域の領域を除外した探索範囲は、ステップS602で再び他の類似物体を探索する際に用いられる。   In step S604, the region of the similar region determined in step S603 is excluded from the search range when searching for a similar object on the previous frame image used in step S602, and the search range is reset. . The search range excluding the similar region determined in step S603 is used when another similar object is searched again in step S602.

次に、図7を参照しながら、図2のステップS215の目標物体復帰処理の詳細について説明する。図7は、図2のステップS215の詳細な処理手順の一例を示すフローチャートである。
まず、ステップS701において、Flagの値から類似物体が存在する状態かどうかを判定する。この判定の結果、類似物体が存在する状態、すなわち、Flagの値が2の場合は、ステップS702へ進み、それ以外の状態、すなわち、Flagの値が2でない場合は、ステップS705へ進む。
Next, details of the target object return processing in step S215 in FIG. 2 will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a detailed processing procedure of step S215 in FIG.
First, in step S701, it is determined from the Flag value whether a similar object exists. As a result of this determination, if a similar object exists, that is, if the Flag value is 2, the process proceeds to step S702. If the other state, that is, the Flag value is not 2, the process proceeds to step S705.

ステップS702においては、ステップS213の処理で得られた一つ以上の類似物体の領域の座標のデータを取得する。そして、ステップS703において、現フレーム画像からステップS702で取得した類似物体の座標を元に類似物体の領域を除外した範囲を、後述するステップS704で目標物体の探索の際に用いる探索範囲として設定する。   In step S702, the coordinate data of one or more similar object regions obtained in step S213 is acquired. In step S703, a range obtained by excluding the region of the similar object based on the coordinates of the similar object acquired in step S702 from the current frame image is set as a search range used when searching for the target object in step S704 described later. .

図4は、ステップS703で設定される探索範囲の例を示す図である。
図4に示すように、ステップS703で現フレーム画像404内に設定される目標物体の領域の探索範囲401は、現フレーム画像から類似物体の領域402、403を除外した範囲である。後述するステップS705で目標物体を探索する際には、矢印で示したように類似物体の領域402、403を避けるような形で目標物体の領域を探索する。したがって、目標物体の探索の結果、類似物体を目標物体と誤って認識してしまう従来の問題を解決することができる。
FIG. 4 is a diagram illustrating an example of the search range set in step S703.
As shown in FIG. 4, the target object region search range 401 set in the current frame image 404 in step S703 is a range obtained by excluding similar object regions 402 and 403 from the current frame image. When searching for a target object in step S705 to be described later, the target object area is searched in such a manner as to avoid the similar object areas 402 and 403 as indicated by arrows. Therefore, the conventional problem of erroneously recognizing a similar object as a target object as a result of searching for the target object can be solved.

図7の説明に戻り、ステップS704においては、予め第1のメモリ112に記憶されている目標物体の領域の特徴量のデータを読み出す。前記目標物体の領域の特徴量のデータは後述するステップS705で目標物体を探索する際に用いる。また、本実施形態で用いる前記目標物体の領域の特徴量のデータは、追尾開始時のフレーム画像上にある目標物体の領域の特徴量である。   Returning to the description of FIG. 7, in step S <b> 704, the feature amount data of the target object region stored in advance in the first memory 112 is read. The feature amount data of the target object region is used when searching for the target object in step S705 to be described later. Further, the feature amount data of the target object region used in the present embodiment is the feature amount of the target object region on the frame image at the start of tracking.

次に、ステップS705において、現フレーム画像上のステップS703で設定された探索範囲内に目標物体が存在するかどうか探索する。探索する際に、ステップS704で第1のメモリ112から読み出した目標物体の領域の特徴量を用いる。探索方法は、図2のステップS206の目標物体追尾処理と同様であるので説明は省略する。そして、探索を行った後、ステップS706に進む。   Next, in step S705, it is searched whether the target object exists within the search range set in step S703 on the current frame image. When searching, the feature quantity of the area of the target object read from the first memory 112 in step S704 is used. The search method is the same as the target object tracking process in step S206 of FIG. Then, after performing the search, the process proceeds to step S706.

次に、ステップS706において、ステップS705における目標物体の領域の探索により、得られた目標物体の候補領域が目標物体の領域であるかどうかを判定する。判定方法はステップS206の目標物体ロスト判定処理と同じ方法、すなわち式(4)を用いて判定する。ただし、P0は、追尾開始時のフレームの目標物体の特徴量である。閾値THはロスト判定処理と同じ値でよい。そして、ステップS706で判定すると、目標物体復帰処理を終了する。   Next, in step S706, it is determined whether the target object candidate area obtained by searching the target object area in step S705 is the target object area. The determination method is determined by using the same method as the target object lost determination process in step S206, that is, the equation (4). However, P0 is the feature quantity of the target object of the frame at the start of tracking. The threshold value TH may be the same value as in the lost determination process. And if it determines by step S706, a target object return process will be complete | finished.

以上のように本実施形態によれば、類似物体の追尾を行って類似物体の領域を除外して目標物体の復帰処理を行うようにしたので、目標物体を見失って復帰処理を行う際に、誤って類似物体を追尾してしまうことを防止することができる。   As described above, according to the present embodiment, the tracking of the similar object is performed and the region of the similar object is excluded to perform the return processing of the target object. It is possible to prevent a similar object from being tracked by mistake.

(その他の実施形態)
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101 CPU
110 追尾処理部
112 第1のメモリ
101 CPU
110 Tracking processing unit 112 First memory

Claims (7)

フレーム画像間で目標物体を追尾する目標物体追尾手段と、
前記フレーム画像から前記目標物体と特徴量が類似する物体を探索する探索手段と、
前記フレーム画像間で前記探索手段により探索された物体と特徴量が類似する類似物体を追尾する類似物体追尾手段と、
前記目標物体追尾手段による追尾の結果、前記目標物体を見失ったかどうかを判定する判定手段と、
前記判定手段により前記目標物体を見失ったと判定した場合に、見失ったと判定されたフレーム画像、もしくは時間的に後のフレーム画像から前記目標物体を探索する復帰手段とを有し、
前記復帰手段は、前記類似物体追尾手段によって追尾された類似物体を含む領域を除いて前記目標物体を探索することを特徴とする追尾装置。
Target object tracking means for tracking the target object between frame images;
Search means for searching for an object having a feature quantity similar to the target object from the frame image;
Similar object tracking means for tracking similar objects whose feature amounts are similar to the objects searched by the search means between the frame images;
As a result of tracking by the target object tracking means, a determination means for determining whether or not the target object has been lost,
When it is determined by the determination means that the target object has been lost, a frame image determined to have lost sight, or a return means for searching for the target object from a temporally subsequent frame image,
The tracking device according to claim 1, wherein the return means searches for the target object excluding a region including the similar object tracked by the similar object tracking means.
前記探索手段は、前記判定手段により前記目標物体を見失ったと判定されたフレーム画像から、前記目標物体と類似する物体を探索することを特徴とする請求項1に記載の追尾装置。   The tracking device according to claim 1, wherein the search unit searches for an object similar to the target object from a frame image determined by the determination unit to have lost sight of the target object. 前記判定手段による判定の結果、前記目標物体を見失っていない場合にその情報を記憶する記憶手段を有することを特徴とする請求項1又は2に記載の追尾装置。   The tracking device according to claim 1, further comprising a storage unit that stores information when the target object is not lost as a result of the determination by the determination unit. 前記記憶手段は、さらに前記判定手段による判定の結果、前記目標物体を見失ったと判定した場合に、前記探索手段による探索の結果の情報を記憶することを特徴とする請求項3に記載の追尾装置。   4. The tracking device according to claim 3, wherein the storage unit further stores information on a result of a search by the search unit when it is determined that the target object has been lost as a result of the determination by the determination unit. . 前記目標物体追尾手段は、時間的に前のフレーム画像の目標物体の特徴量との間の差分絶対和に基づいて前記目標物体を追尾することを特徴とする請求項1〜4の何れか1項に記載の追尾装置。   The target object tracking unit tracks the target object based on an absolute difference between the target object and the feature amount of the previous frame image in time. The tracking device according to item. フレーム画像間で目標物体を追尾する目標物体追尾工程と、
前記フレーム画像から前記目標物体と特徴量が類似する物体を探索する探索工程と、
前記フレーム画像間で前記探索工程において探索された物体と特徴量が類似する類似物体を追尾する類似物体追尾工程と、
前記目標物体追尾工程における追尾の結果、前記目標物体を見失ったかどうかを判定する判定工程と、
前記判定工程において前記目標物体を見失ったと判定した場合に、見失ったと判定されたフレーム画像、もしくは時間的に後のフレーム画像から前記目標物体を探索する復帰工程とを有し、
前記復帰工程においては、前記類似物体追尾工程において追尾された類似物体を含む領域を除いて前記目標物体を探索することを特徴とする追尾方法。
A target object tracking process for tracking the target object between frame images;
A search step for searching for an object having a feature quantity similar to the target object from the frame image;
A similar object tracking step of tracking a similar object having a feature quantity similar to the object searched in the search step between the frame images;
As a result of tracking in the target object tracking step, a determination step of determining whether or not the target object has been lost,
When it is determined that the target object has been lost in the determination step, a frame image determined to have lost sight, or a return step for searching for the target object from a temporally subsequent frame image,
In the return step, the target object is searched for except for a region including the similar object tracked in the similar object tracking step.
フレーム画像間で目標物体を追尾する目標物体追尾工程と、
前記フレーム画像から前記目標物体と特徴量が類似する物体を探索する探索工程と、
前記フレーム画像間で前記探索工程において探索された物体と特徴量が類似する類似物体を追尾する類似物体追尾工程と、
前記目標物体追尾工程における追尾の結果、前記目標物体を見失ったかどうかを判定する判定工程と、
前記判定工程において前記目標物体を見失ったと判定した場合に、見失ったと判定されたフレーム画像、もしくは時間的に後のフレーム画像から前記目標物体を探索する復帰工程とをコンピュータに実行させ、
前記復帰工程においては、前記類似物体追尾工程において追尾された類似物体を含む領域を除いて前記目標物体を探索することを特徴とするプログラム。
A target object tracking process for tracking the target object between frame images;
A search step for searching for an object having a feature quantity similar to the target object from the frame image;
A similar object tracking step of tracking a similar object having a feature quantity similar to the object searched in the search step between the frame images;
As a result of tracking in the target object tracking step, a determination step of determining whether or not the target object has been lost,
When it is determined that the target object has been lost in the determination step, the computer executes a frame image determined to have been lost or a return step for searching for the target object from a temporally subsequent frame image,
In the return step, the target object is searched for excluding a region including the similar object tracked in the similar object tracking step.
JP2012244380A 2012-11-06 2012-11-06 TRACKING DEVICE, TRACKING METHOD, AND PROGRAM Expired - Fee Related JP6000809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244380A JP6000809B2 (en) 2012-11-06 2012-11-06 TRACKING DEVICE, TRACKING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244380A JP6000809B2 (en) 2012-11-06 2012-11-06 TRACKING DEVICE, TRACKING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2014093711A true JP2014093711A (en) 2014-05-19
JP6000809B2 JP6000809B2 (en) 2016-10-05

Family

ID=50937489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244380A Expired - Fee Related JP6000809B2 (en) 2012-11-06 2012-11-06 TRACKING DEVICE, TRACKING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6000809B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141589A (en) * 1997-07-17 1999-02-12 Hitachi Ltd Method and system for supervising mobile object
JP2008250999A (en) * 2007-03-08 2008-10-16 Omron Corp Object tracing method, object tracing device and object tracing program
JP2010117952A (en) * 2008-11-13 2010-05-27 Masafumi Hagiwara Apparatus and method for identifying object
JP2011192092A (en) * 2010-03-15 2011-09-29 Omron Corp Object tracking apparatus, object tracking method, and control program
JP2011199526A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Object tracking device, and method of controlling operation of the same
JP2012133759A (en) * 2010-11-29 2012-07-12 Canon Inc Object tracking device capable of detecting intrusion object, object tracking method, and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141589A (en) * 1997-07-17 1999-02-12 Hitachi Ltd Method and system for supervising mobile object
JP2008250999A (en) * 2007-03-08 2008-10-16 Omron Corp Object tracing method, object tracing device and object tracing program
JP2010117952A (en) * 2008-11-13 2010-05-27 Masafumi Hagiwara Apparatus and method for identifying object
JP2011192092A (en) * 2010-03-15 2011-09-29 Omron Corp Object tracking apparatus, object tracking method, and control program
JP2011199526A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Object tracking device, and method of controlling operation of the same
JP2012133759A (en) * 2010-11-29 2012-07-12 Canon Inc Object tracking device capable of detecting intrusion object, object tracking method, and storage medium

Also Published As

Publication number Publication date
JP6000809B2 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
US10394318B2 (en) Scene analysis for improved eye tracking
US10366504B2 (en) Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP5361524B2 (en) Pattern recognition system and pattern recognition method
JP6139447B2 (en) Image processing apparatus, image processing method, and image processing program
CN104583902A (en) Improved identification of a gesture
JP2011134114A (en) Pattern recognition method and pattern recognition apparatus
JP2007233871A (en) Image processor, control method for computer, and program
CN104508680A (en) Object tracking in video stream
JP2021176243A (en) Image processing apparatus, control method for the same, and imaging apparatus
KR101647969B1 (en) Apparatus for detecting user gaze point, and method thereof
JP5441151B2 (en) Facial image tracking device, facial image tracking method, and program
JP7312026B2 (en) Image processing device, image processing method and program
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2002269545A (en) Face image processing method and face image processing device
JP6000809B2 (en) TRACKING DEVICE, TRACKING METHOD, AND PROGRAM
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
JP6555940B2 (en) Subject tracking device, imaging device, and method for controlling subject tracking device
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
KR20220098314A (en) Training method and apparatus for neural network and related object detection method and apparatus
KR20180069312A (en) Method for tracking of object using light field video and apparatus thereof
JP2019200527A (en) Information processing device, information processing method, and program
WO2018191058A1 (en) Image processing system with discriminative control
US20170140523A1 (en) Image preproduction apparatus, method for controlling the same, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160831

R151 Written notification of patent or utility model registration

Ref document number: 6000809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees