JP2016076791A - Object tracking device, object tracking method, and program - Google Patents

Object tracking device, object tracking method, and program Download PDF

Info

Publication number
JP2016076791A
JP2016076791A JP2014205124A JP2014205124A JP2016076791A JP 2016076791 A JP2016076791 A JP 2016076791A JP 2014205124 A JP2014205124 A JP 2014205124A JP 2014205124 A JP2014205124 A JP 2014205124A JP 2016076791 A JP2016076791 A JP 2016076791A
Authority
JP
Japan
Prior art keywords
tracking
target
imaging
unit
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014205124A
Other languages
Japanese (ja)
Inventor
康夫 馬塲
Yasuo Baba
康夫 馬塲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014205124A priority Critical patent/JP2016076791A/en
Publication of JP2016076791A publication Critical patent/JP2016076791A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a possibility for imaging means to fail in automatic tracking of a tracking target.SOLUTION: Information indicating a relation between a tracking continuity value indicating a possibility (difficulty) of automatic tracking of a tracking target 102 and a target part is stored. When a tracking continuity value is acquired, a moving amount of pan/tilt is calculated in such a manner that a target part relating to the tracking continuity value is displayed on the center of a screen, a universal head of a PTZ camera 201 is moved just by the calculated moving amount, and an imaging direction of an imaging part 400 is changed. At such a time, a position where a failure of automatic tracking of the tracking target 102 is more unlikely to occur as the tracking continuity value indicates a lower possibility of automatic tracking of the tracking target 102, is determined as a target part. For example, in the case where the imaging part 400 is installed vertically downwards at a position higher than the tracking target 102, as the tracking continuity value indicates a lower possibility of automatic tracking of the tracking target 102, a lower position within the tracking target 102 is determined as the target part.SELECTED DRAWING: Figure 4

Description

本発明は、物体追尾装置、物体追尾方法、およびプログラムに関し、特に、撮像手段が物体を自動追尾するために用いて好適なものである。   The present invention relates to an object tracking device, an object tracking method, and a program, and is particularly suitable for use by an imaging unit to automatically track an object.

監視およびモニタリングシステムでは、PTZカメラとよばれるパン・チルト・ズームを自動的に調節することが可能なカメラを用いた自動追尾技術が知られている。かかる自動追尾技術では、追尾目標が常に撮像され続けるように、PTZカメラのパン・チルト・ズームを自動的に制御する。ここでパンとは、カメラの向きを左右に振ることを意味する。チルトとは、カメラの向きを上下に振ることを意味する。ズームとは、画角を望遠または広角に変化させることを意味する。   In the monitoring and monitoring system, an automatic tracking technique using a camera called a PTZ camera that can automatically adjust pan, tilt, and zoom is known. In such automatic tracking technology, pan / tilt / zoom of the PTZ camera is automatically controlled so that the tracking target is continuously imaged. Here, panning means that the direction of the camera is shaken from side to side. Tilt means to shake the camera up and down. Zooming means changing the angle of view to a telephoto or wide angle.

特許文献1では、PTZカメラが静止しているときにフレーム間差分を用いて移動体を検知し、検知した移動体をPTZカメラで追尾する技術が開示されている。特許文献1では、移動体の移動方向および速度を差分画像から推定し、移動体を撮像画面の中心近くで捉えるために必要なパン・チルト値を算出する。   Patent Document 1 discloses a technique for detecting a moving body using a difference between frames when the PTZ camera is stationary, and tracking the detected moving body with the PTZ camera. In Patent Document 1, the moving direction and speed of the moving body are estimated from the difference image, and a pan / tilt value necessary for capturing the moving body near the center of the imaging screen is calculated.

特許文献2では、店の入り口のカメラにて顔画像を最適な状態で撮像することを目的に、顔画像を抽出して追尾し、カメラの方向制御部、ズーム制御部、および露光制御部を制御する技術が開示されている。   In Patent Document 2, in order to capture a face image in an optimal state with a camera at the entrance of the store, the face image is extracted and tracked, and a camera direction control unit, zoom control unit, and exposure control unit are provided. Techniques for controlling are disclosed.

特許文献3では、画面上に表示された追尾目標の座標をもとに、追尾目標を画面中心に表示するために必要なPTZカメラの制御パラメータを計算する方法が開示されている。   Patent Document 3 discloses a method for calculating control parameters of a PTZ camera necessary for displaying the tracking target at the center of the screen based on the coordinates of the tracking target displayed on the screen.

特開2011−77617号公報JP 2011-77617 A 特開2009−86932号公報JP 2009-86932 A 特開平9−181961号公報JP-A-9-181961

しかしながら、特許文献1〜3に記載の技術では、追尾目標の位置や動き等によっては、撮像手段が追尾目標の自動追尾に失敗する虞がある。例えば、追尾目標としての人物領域の重心位置が、常に画面の中心になるように、撮像手段の撮像方向を移動させた場合、自動追尾に失敗する虞がある。   However, in the techniques described in Patent Documents 1 to 3, depending on the position and movement of the tracking target, the imaging unit may fail to automatically track the tracking target. For example, when the imaging direction of the imaging means is moved so that the center of gravity of the person area as the tracking target is always at the center of the screen, there is a risk that automatic tracking will fail.

本発明はこのような問題点に鑑みなされたものであり、撮像手段が追尾目標の自動追尾に失敗する可能性を低くすることを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to reduce the possibility that the imaging means will fail to automatically track the tracking target.

本発明の物体追尾装置は、撮像方向を自動的に変更することが可能な撮像手段で撮像された画像から、当該撮像手段で自動追尾する移動物体を抽出する抽出手段と、前記抽出手段により抽出された前記移動物体に対する自動追尾の継続の難易度を評価するための指標を取得する取得手段と、前記取得手段により取得された前記指標に基づいて、前記画像における目標部を決定する決定手段と、前記決定手段により決定された目標部に基づいて、前記撮像手段による前記撮像方向の変更を指示する指示手段と、を有し、前記決定手段は、前記指標により評価される前記難易度が相対的に高い場合の方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする。   The object tracking device according to the present invention includes an extraction unit that extracts a moving object that is automatically tracked by the imaging unit from an image captured by the imaging unit that can automatically change the imaging direction, and the extraction unit extracts the moving object. Acquisition means for acquiring an index for evaluating the degree of difficulty of continuation of automatic tracking for the moving object, and determination means for determining a target portion in the image based on the index acquired by the acquisition means; And an instruction means for instructing the change of the imaging direction by the imaging means based on the target portion determined by the determination means, and the determination means has a relative degree of difficulty evaluated by the index. The position where the failure of automatic tracking of the moving object is less likely to occur when the target is higher than the case where the degree of difficulty evaluated by the index is relatively low is defined as the target unit. Characterized by being adapted to determine Te.

本発明によれば、撮像手段が追尾目標の自動追尾に失敗する可能性を低くすることができる。   According to the present invention, it is possible to reduce the possibility that the imaging unit will fail to automatically track the tracking target.

目標部の設定方法を説明する図である。It is a figure explaining the setting method of a target part. 自動追尾に失敗しやすくなる状況を説明する図である。It is a figure explaining the situation where it becomes easy to fail in automatic tracking. 追尾システムの構成を示す図である。It is a figure which shows the structure of a tracking system. PTZカメラの構成を示す図である。It is a figure which shows the structure of a PTZ camera. 追尾継続性値と目標部の位置との関係を示す図である。It is a figure which shows the relationship between a tracking continuity value and the position of a target part. 目標部の位置の一例を示す図である。It is a figure which shows an example of the position of a target part. 自動追尾処理を説明するフローチャートである。It is a flowchart explaining an automatic tracking process.

本発明の実施形態を説明する前に、本発明の実施形態の前提となる事項について説明する。
自動追尾技術では、画面内における追尾目標の探索と、探索した追尾目標が画面内に映るようなカメラの制御パラメータの計算とを繰り返すことで追尾目標を追尾し続けるのが一般的である。
Before describing the embodiment of the present invention, the premise of the embodiment of the present invention will be described.
In the automatic tracking technology, it is common to keep track of a tracking target by repeating the search for the tracking target in the screen and the calculation of the control parameters of the camera so that the searched tracking target appears in the screen.

このとき、追尾目標は、矩形や楕円などの簡単な図形で近似されることが多い。また、追尾目標を近似する図形内の或る部分を目標部として選択し、その目標部が画面の中央に位置するようにカメラの制御パラメータを計算する。どの部分を目標部として選ぶのが好適であるのかは、自動追尾の目的により異なる。通常は、追尾目標が画面の中心、または、画面の中心よりもやや下に撮像されるようにするようにするため、近似図形の上半分の領域から目標部を選ぶことが多い。   At this time, the tracking target is often approximated by a simple figure such as a rectangle or an ellipse. Also, a certain part in the figure that approximates the tracking target is selected as a target part, and the camera control parameters are calculated so that the target part is located at the center of the screen. Which part is preferably selected as the target part depends on the purpose of automatic tracking. Normally, the target portion is often selected from the upper half area of the approximate figure so that the tracking target is imaged at the center of the screen or slightly below the center of the screen.

図1は、目標部の設定方法の一例を説明する図である。
図1において、PTZカメラで撮像される画像101内に、追尾目標102が映し出されている様子を示す。移動方向106を示す矢印線は、追尾目標102が当該矢印線の方向に移動中であることを示す。追尾目標102の形は、近似図形103に近似される。図1では、近似図形103が矩形である場合を例に挙げて示す。中心点104は、近似図形103の中心点を表す。上1/3点105は、横方向の位置が、近似図形103の横方向の中央の位置であり、且つ、縦方向の位置が、近似図形103の上端から下の方へ近似図形103の高さの1/3の距離だけ隔てた位置の点である。尚、近似図形103、中心点104、および上1/3点105は、通常は、画像101内に表示されない。
FIG. 1 is a diagram illustrating an example of a method for setting a target portion.
FIG. 1 shows a state in which a tracking target 102 is projected in an image 101 captured by a PTZ camera. An arrow line indicating the movement direction 106 indicates that the tracking target 102 is moving in the direction of the arrow line. The shape of the tracking target 102 is approximated to the approximate figure 103. FIG. 1 shows an example in which the approximate figure 103 is a rectangle. The center point 104 represents the center point of the approximate figure 103. The upper 1/3 point 105 has a horizontal position that is the center position of the approximate figure 103 in the horizontal direction, and a vertical position that is the height of the approximate figure 103 from the upper end of the approximate figure 103 downward. This is a point at a position separated by 1/3 of the distance. Note that the approximate figure 103, the center point 104, and the upper 1/3 point 105 are not normally displayed in the image 101.

PTZカメラは、中心点104を常に目標部とすることで追尾目標102の全身を画面の中央に映すことができる。また、PTZカメラは、上1/3点105を常に目標部とすることで追尾目標102の上半身を画面の中央に映すことができる。
図1に示す例では、目標部が点である場合を例に挙げて示す。しかしながら、目標部として、点よりも大きな領域を用いることもできる。例えば、顔全体の領域を目標部として選ぶこともできる。
The PTZ camera can project the whole body of the tracking target 102 in the center of the screen by always setting the center point 104 as a target portion. In addition, the PTZ camera can project the upper half of the tracking target 102 in the center of the screen by always setting the upper 1/3 point 105 as the target portion.
In the example illustrated in FIG. 1, a case where the target portion is a point is described as an example. However, a region larger than a point can be used as the target portion. For example, the entire face area can be selected as the target portion.

もし、PTZカメラが撮像した画像を用いて、後段で何らかの映像処理を行う場合には、当該映像処理を行う機能が最も有効に働く部分を目標部として選ぶようにすることが考えられる。例えば、後段の映像処理機能として、顔認証機能や眼鏡判別機能がある場合には、追尾目標の顔領域を目標部として選ぶことができる。また、後段の映像処理機能として、服装判別機能がある場合は、追尾目標の胴体領域を目標部として選ぶことができる。   If some video processing is performed at a later stage using an image captured by the PTZ camera, it is conceivable to select a portion that functions most effectively as the target portion. For example, when there is a face authentication function or a glasses discrimination function as the video processing function in the subsequent stage, the tracking target face area can be selected as the target portion. Further, when there is a clothing discrimination function as a subsequent video processing function, the body area of the tracking target can be selected as the target portion.

しかしながら、常に同じ領域を目標部として選ぶことにより、特定の状況において自動追尾に失敗しやすくなる。
図2は、自動追尾に失敗しやすくなる状況の一例を説明する図である。図2では、追尾目標102よりも高い位置に、PTZカメラ201(の天頂の方向)が鉛直下向きに設置されている場合を例に挙げて示す。追尾目標102は、PTZカメラ201から数m離れた直線202上を、地点203から地点204を経由して地点205へ移動するものとする。このとき、目標部として、近似図形103内の上の方の位置、例えば、中心点104や上1/3点105を選択する場合、自動追尾に失敗しやすくなる。
However, by always selecting the same area as the target part, automatic tracking tends to fail in a specific situation.
FIG. 2 is a diagram illustrating an example of a situation in which automatic tracking is likely to fail. FIG. 2 shows an example in which the PTZ camera 201 (the direction of the zenith) is installed vertically downward at a position higher than the tracking target 102. The tracking target 102 is assumed to move from a point 203 to a point 205 via a point 204 on a straight line 202 several meters away from the PTZ camera 201. At this time, when the upper position in the approximate figure 103, for example, the center point 104 or the upper 1/3 point 105 is selected as the target portion, the automatic tracking is likely to fail.

その理由を以下に説明する。
追尾目標102が、PTZカメラ201に近い位置を移動する場合、PTZカメラ201のパン角・チルト角が瞬間的に大きく変化する。図2に示す例の場合、追尾目標102が地点203または地点205付近を移動するときには、パン角・チルト角の角速度は小さく、また、チルト角は水平方向に近い角度になる。一方、追尾目標102が地点204付近を移動するときは、パン角・チルト角とも角速度が大きくなり、なおかつチルト角が天頂の方向に深く沈みこむ。
The reason will be described below.
When the tracking target 102 moves to a position close to the PTZ camera 201, the pan angle / tilt angle of the PTZ camera 201 changes greatly instantaneously. In the example shown in FIG. 2, when the tracking target 102 moves near the point 203 or the point 205, the angular velocity of the pan angle / tilt angle is small, and the tilt angle becomes an angle close to the horizontal direction. On the other hand, when the tracking target 102 moves near the point 204, the angular velocity of both the pan angle and the tilt angle increases, and the tilt angle sinks deeply toward the zenith.

この際、目標部として、近似図形103内の上の方の位置を選択する場合と、下の方の位置を選択する場合とを比較すると、前者の場合の方が、後者の場合よりも、目標部と、PTZカメラ201との実世界(実空間)での距離が短くなる。従って、前者の場合の方が、後者の場合よりも、自動追尾の継続に必要なPTZカメラ201のパン角およびチルト角の角速度が大きくなる。従って、目標部として、近似図形103内の上の方の位置を選択する場合には、下の方の位置を選択する場合よりも、自動追尾に失敗しやすくなる。
本発明者らは、このように、目標部と、PTZカメラ201との実世界(実空間)での距離に応じて、自動追尾に失敗しやすさが異なることに着目し、以下に説明する本発明の実施形態に至った。
At this time, when selecting the upper position in the approximate figure 103 as the target portion and the case of selecting the lower position, the former case is more preferable than the latter case. The distance between the target unit and the PTZ camera 201 in the real world (real space) is shortened. Therefore, in the former case, the angular velocity of the pan angle and the tilt angle of the PTZ camera 201 necessary for continuing the automatic tracking is larger than in the latter case. Therefore, when the upper position in the approximate figure 103 is selected as the target portion, the automatic tracking is more likely to fail than when the lower position is selected.
The present inventors pay attention to the fact that the likelihood of failing in automatic tracking differs according to the distance between the target unit and the PTZ camera 201 in the real world (real space), and will be described below. It came to the embodiment of the present invention.

以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図3は、本実施形態における追尾システムの構成の一例を示す図である。
図3において、追尾システムは、PTZカメラ201、表示装置301、および録画装置302を有する。PTZカメラ201、表示装置301、および録画装置302は、ネットワーク303経由で相互に通信可能に接続される。PTZカメラ201は、表示装置301、録画装置302からの要求に対して、PTZカメラ201で撮像された画像304を送信する。録画装置302は、PTZカメラ201から取得した画像304を記録媒体に保存する。表示装置301は、PTZカメラ201から取得した画像304や、録画装置302に保存された画像304を読み出して表示したり、図示しない入力装置を通じてユーザからの要求を受け取り、PTZカメラ201へ要求を送信したりする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 3 is a diagram illustrating an example of the configuration of the tracking system according to the present embodiment.
In FIG. 3, the tracking system includes a PTZ camera 201, a display device 301, and a recording device 302. The PTZ camera 201, the display device 301, and the recording device 302 are connected via a network 303 so that they can communicate with each other. The PTZ camera 201 transmits an image 304 captured by the PTZ camera 201 in response to requests from the display device 301 and the recording device 302. The recording device 302 stores the image 304 acquired from the PTZ camera 201 in a recording medium. The display device 301 reads and displays the image 304 acquired from the PTZ camera 201 and the image 304 stored in the recording device 302, receives a request from the user through an input device (not shown), and transmits the request to the PTZ camera 201. To do.

図4は、PTZカメラ201の構成の一例を示す図である。
PTZカメラ201は、撮像部400と制御部450とを有する。
撮像部400は、CMOSセンサやCCDセンサなどの固体撮像素子と、雲台とを含む。撮像部400は、パン、チルト、およびズームの少なくとも何れか1つを変化させて画像304を撮像することができる。
FIG. 4 is a diagram illustrating an example of the configuration of the PTZ camera 201.
The PTZ camera 201 includes an imaging unit 400 and a control unit 450.
The imaging unit 400 includes a solid-state imaging device such as a CMOS sensor or a CCD sensor, and a camera platform. The imaging unit 400 can capture the image 304 by changing at least one of pan, tilt, and zoom.

通信I/F部451は、HTTPやTCP/IPなどの通信方式に基づき情報の送受信を行う。
映像入力部452は、撮像部400から撮像データDを受け取る。ここで、撮像データDとは、撮像部400により撮像された画像304、およびその画像304の撮像時の撮像部400の姿勢情報(パン値、チルト値、ズーム値)を含むデータである。
The communication I / F unit 451 transmits and receives information based on a communication method such as HTTP or TCP / IP.
The video input unit 452 receives the imaging data D from the imaging unit 400. Here, the imaging data D is data including an image 304 captured by the imaging unit 400 and posture information (pan value, tilt value, zoom value) of the imaging unit 400 when the image 304 is captured.

映像符号化部453は、映像入力部452から撮像データDを受け取り、画像304を適当な符号化方式で符号化する。ここで、符号化方式としては、JPEG、MPEG−2、MPEG−4、およびH.264等の方式がある。符号化された画像304は、映像送信部454から、通信I/F部451経由で外部へ送信される。   The video encoding unit 453 receives the imaging data D from the video input unit 452 and encodes the image 304 by an appropriate encoding method. Here, as encoding methods, JPEG, MPEG-2, MPEG-4, and H.264 are available. There are methods such as H.264. The encoded image 304 is transmitted from the video transmission unit 454 to the outside via the communication I / F unit 451.

全体制御部455は、PTZカメラ201を構成するモジュールの制御を行う。
映像入力部452によって取得された撮像データDは追尾目標決定部456にも送信される。追尾目標決定部456は、通信I/F部451および全体制御部455を経由して、表示装置301などから、自動追尾の開始要求と自動追尾の終了要求とを受け取る。追尾目標決定部456は、自動追尾の開始要求を受け取ってから、自動追尾の終了要求を受け取るまでの間、追尾目標102の位置情報を決定して出力する。
The overall control unit 455 controls the modules that constitute the PTZ camera 201.
The imaging data D acquired by the video input unit 452 is also transmitted to the tracking target determination unit 456. The tracking target determination unit 456 receives an automatic tracking start request and an automatic tracking end request from the display device 301 or the like via the communication I / F unit 451 and the overall control unit 455. The tracking target determination unit 456 determines and outputs position information of the tracking target 102 from the time when the automatic tracking start request is received until the automatic tracking end request is received.

追尾目標決定部456は、自動追尾の開始要求を受け取った後に、追尾目標102を決定する。追尾目標102としては、動画像処理によって画像304の中から自動的に検出した移動物体、もしくはユーザが明示的に選択した移動物体のいずれかが用いられることが一般的である。前者のようにして移動物体を追尾目標102として検出する場合には、背景差分法や動きベクトル検出による動体領域の検出結果や、機械学習を用いた人体や顔など、移動物体の特定の領域の検出器の検出結果を用いることができる。ただし、追尾目標102の選択方法はこれらに限定されるものではなく、任意の方法でよい。特許文献1に記載の方法はその一例である。   The tracking target determination unit 456 determines the tracking target 102 after receiving the automatic tracking start request. As the tracking target 102, either a moving object automatically detected from the image 304 by moving image processing or a moving object explicitly selected by the user is generally used. When the moving object is detected as the tracking target 102 as in the former case, the detection result of the moving object region by the background subtraction method or the motion vector detection, or the specific region of the moving object such as the human body or the face using machine learning is used. The detection result of the detector can be used. However, the method of selecting the tracking target 102 is not limited to these, and any method may be used. The method described in Patent Document 1 is an example.

追尾目標決定部456は、追尾目標102を決定すると、その追尾目標102が画面内に表示され続けている限り、追尾目標102の画面内の位置を決定して出力する。追尾目標102の画面内の位置の決定方法として、例えば、以下の方法がある。まず、追尾目標決定部456は、追尾目標102の決定時に、撮像データDから、テンプレートや画像特徴量を抽出する。そして、追尾目標決定部456は、テンプレートや画像特徴量に対して適当な指標を定義しておくことで、現在の撮像データDから、追尾目標102が存在する確率の最も高い位置を、追尾目標102の画面内の位置として探索して出力する。この探索の結果、追尾目標102が画面内に存在しないと判断した場合、追尾目標決定部456は、その旨を出力する。   After determining the tracking target 102, the tracking target determining unit 456 determines and outputs the position of the tracking target 102 in the screen as long as the tracking target 102 continues to be displayed in the screen. As a method for determining the position of the tracking target 102 within the screen, for example, there are the following methods. First, the tracking target determination unit 456 extracts a template and an image feature amount from the imaging data D when the tracking target 102 is determined. Then, the tracking target determination unit 456 defines an appropriate index for the template and the image feature amount, so that the position with the highest probability that the tracking target 102 exists is determined from the current imaging data D as the tracking target. It searches for the position in the screen 102 and outputs it. As a result of this search, when it is determined that the tracking target 102 does not exist in the screen, the tracking target determination unit 456 outputs that fact.

追尾目標102の画面内の位置を探索する方法のより具体的な例として、テンプレートを用いる探索の方法について説明する。
まず、追尾目標決定部456は、追尾目標102の決定時に、追尾目標102を含む近似図形103から、画像304の輝度に基づくテンプレートを抽出しておく。追尾目標決定部456は、次の画像304が入ってきたとき、テンプレートを画面内にてスライディングウィンドウ方式で少しずつ移動させ、SSD(Sum of Squared Difference)が最小になる位置を探す。追尾目標決定部456は、その位置に追尾目標102が存在していると判断する。ここで、SSDとは、画像間の相違度を数値化した指標である。SSDがある閾値以下になる箇所が一つも存在しない場合、追尾目標決定部456は、追尾目標102が画面内に存在しないと判断する。
A search method using a template will be described as a more specific example of a method for searching the position of the tracking target 102 on the screen.
First, the tracking target determination unit 456 extracts a template based on the luminance of the image 304 from the approximate figure 103 including the tracking target 102 when the tracking target 102 is determined. When the next image 304 comes in, the tracking target determination unit 456 moves the template little by little in the sliding window method on the screen, and searches for a position where the SSD (Sum of Squared Difference) is minimized. The tracking target determination unit 456 determines that the tracking target 102 exists at that position. Here, the SSD is an index that quantifies the degree of difference between images. When there is no location where the SSD is below a certain threshold, the tracking target determination unit 456 determines that the tracking target 102 does not exist in the screen.

追尾目標102の画面内の位置の決定方法は、前述した方法に限定されるものではない。例えば、特徴点の動きベクトルを用いて動き方向と動き量を推定する方法や、フレーム間差分により複数の動体を抽出し、それら複数の導体の中から一つを選ぶ方法など、位置を決定できる任意の方法を用いてよい。   The method for determining the position of the tracking target 102 within the screen is not limited to the method described above. For example, the position can be determined by estimating the direction and amount of motion using the motion vectors of feature points, extracting multiple moving objects using inter-frame differences, and selecting one of the multiple conductors. Any method may be used.

追尾目標決定部456は、例えば、追尾目標102を矩形や楕円などの簡単な近似図形103で近似した後、その近似図形103の画面内での座標情報によって、追尾目標102の位置情報を表現する。ただし、追尾目標102の位置情報の表現方法はこの方法に限定されるものではない。例えば、追尾目標102の輪郭や、追尾目標102を構成する画素やブロックの集合など、追尾目標102の画面内の位置を特定する任意の表現方法を用いてよい。   The tracking target determination unit 456, for example, approximates the tracking target 102 with a simple approximate figure 103 such as a rectangle or an ellipse, and then expresses the position information of the tracking target 102 based on the coordinate information on the screen of the approximate figure 103. . However, the method for expressing the position information of the tracking target 102 is not limited to this method. For example, any expression method for specifying the position of the tracking target 102 on the screen, such as the outline of the tracking target 102 or a set of pixels or blocks constituting the tracking target 102, may be used.

また、追尾目標102の位置を決定する方法として、未来の追尾目標の位置を推定する方法を用いてもよい。例えば、追尾目標102の移動方向と移動速度とを推定し、一定時間後の追尾目標102の画面上の位置を予測し、その位置に基づいて、追尾目標102の位置情報を作成してもよい。   Further, as a method for determining the position of the tracking target 102, a method for estimating the position of a future tracking target may be used. For example, the moving direction and moving speed of the tracking target 102 may be estimated, the position of the tracking target 102 on the screen after a predetermined time may be predicted, and the position information of the tracking target 102 may be created based on the position. .

追尾継続性推定部457は、追尾目標決定部456から、撮像データDおよび追尾目標102の位置情報を受け取る。そして、追尾継続性推定部457は、追尾継続性を推定する。ここで、追尾継続性とは、追尾目標102の自動追尾を継続することに成功する確率の高低のことである。以下の説明では、追尾目標102に対する自動追尾の難易度が相対的に低く、自動追尾を継続することがうまくいきそうな状況のことを、必要に応じて、追尾継続性が高いと表現する。逆に、追尾目標102に対する自動追尾の難易度が相対的に高く、自動追尾に失敗して追尾目標102を画面内にとらえ続けられなくなってしまいそうな状況のことを、必要に応じて、追尾継続性が低いと表現する。   The tracking continuity estimation unit 457 receives the imaging data D and the position information of the tracking target 102 from the tracking target determination unit 456. Then, the tracking continuity estimation unit 457 estimates tracking continuity. Here, the tracking continuity is a high or low probability of succeeding in continuing the automatic tracking of the tracking target 102. In the following description, a situation where the difficulty level of the automatic tracking with respect to the tracking target 102 is relatively low and the automatic tracking is likely to continue is expressed as high tracking continuity as necessary. On the other hand, if the degree of difficulty of automatic tracking with respect to the tracking target 102 is relatively high and the automatic tracking fails and the tracking target 102 may not be kept on the screen, the tracking is performed as necessary. Expressed as low continuity.

本実施形態では、追尾継続性が高いほど、追尾目標102に対する自動追尾の継続の可能性(難易度)を示す追尾継続性値が大きい値を示すものとする。追尾継続性値は、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、PTZカメラ201の設置状況と、PTZカメラ201の位置と追尾目標102の位置との関係などに基づき定められる指標を用いて推定される。
例えば、PTZカメラ201のズーム値が同じであると仮定すれば、追尾目標102がPTZカメラ201に近い位置を移動している場合ほど、追尾継続性値が小さい(追尾継続性が低い)と判断できる。
In this embodiment, it is assumed that the higher the tracking continuity is, the larger the tracking continuity value indicating the possibility (difficulty) of continuing automatic tracking for the tracking target 102 is. The tracking continuity value is an index for evaluating the possibility (difficulty) of continuation of automatic tracking with respect to the tracking target 102. For example, the installation status of the PTZ camera 201, the position of the PTZ camera 201, and the position of the tracking target 102 It is estimated using an index determined based on the relationship between
For example, assuming that the zoom values of the PTZ camera 201 are the same, it is determined that the tracking continuity value is smaller (the tracking continuity is lower) as the tracking target 102 moves closer to the PTZ camera 201. it can.

このようにして追尾継続性を判断する場合、追尾継続性推定部457は、追尾目標102とPTZカメラ201との間の(実空間における)距離を、例えば、追尾目標102の画面上の大きさによって推測することができる。また、追尾継続性推定部457は、距離センサやステレオカメラなどの図示しない装置によって、追尾目標102とPTZカメラ201との間の(実空間における)距離を計測することができる。このように、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、追尾目標102の画面上の大きさ、または、追尾目標102とPTZカメラ201との間の距離を用いることができる。   When determining tracking continuity in this way, the tracking continuity estimation unit 457 determines the distance (in real space) between the tracking target 102 and the PTZ camera 201, for example, the size of the tracking target 102 on the screen. Can be guessed. Further, the tracking continuity estimation unit 457 can measure the distance (in real space) between the tracking target 102 and the PTZ camera 201 using a device (not shown) such as a distance sensor or a stereo camera. As described above, as an index for evaluating the possibility (difficulty) of continuation of automatic tracking with respect to the tracking target 102, for example, the size of the tracking target 102 on the screen or the tracking target 102 and the PTZ camera 201 The distance between can be used.

また、PTZカメラ201が追尾目標102よりも高い位置に鉛直下向きに設置されている場合、追尾目標102がPTZカメラ201に近い位置にあるときほどPTZカメラ201のチルト角が天頂の方向に深く沈む。そのため、追尾継続性推定部457は、チルト角の大きさを用いて、追尾目標102とPTZカメラ201との間の(実空間における)距離を近似することも可能である。この場合、例えば、PTZカメラ201のチルト角が天頂から遠い方向(水平方向)に近い場合ほど、追尾継続性値が小さい(追尾継続性が低い)と推定することができる。このように、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、PTZカメラ201のチルト角を用いることができる。   Further, when the PTZ camera 201 is installed vertically downward at a position higher than the tracking target 102, the tilt angle of the PTZ camera 201 sinks deeper toward the zenith as the tracking target 102 is closer to the PTZ camera 201. . Therefore, the tracking continuity estimation unit 457 can also approximate the distance (in real space) between the tracking target 102 and the PTZ camera 201 using the magnitude of the tilt angle. In this case, for example, it can be estimated that the tracking continuity value is smaller (the tracking continuity is lower) as the tilt angle of the PTZ camera 201 is closer to the direction farther from the zenith (horizontal direction). As described above, for example, the tilt angle of the PTZ camera 201 can be used as an index for evaluating the possibility (degree of difficulty) of continuing automatic tracking with respect to the tracking target 102.

また、追尾継続性推定部457は、PTZカメラ201により撮像された、直近の所定数のフレームにおける、パン角・チルト角の変化速度(単位時間当たりに動く角度)が大きいほど、追尾継続性値が小さい(追尾継続性が低い)と推定することができる。このように、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、パン角・チルト角の変化速度(単位時間当たりに動く角度)を用いることができる。   Also, the tracking continuity estimation unit 457 increases the tracking continuity value as the pan angle / tilt angle change rate (moving angle per unit time) increases in the most recent predetermined number of frames captured by the PTZ camera 201. Can be estimated to be small (the tracking continuity is low). As described above, as an index for evaluating the possibility (difficulty) of continuing the automatic tracking with respect to the tracking target 102, for example, the change speed of the pan angle / tilt angle (the angle that moves per unit time) can be used. .

追尾継続性値の推定方法は、これらの方法に限定されるものではない。例えば、人体検出器、眼鏡検出器、服装検出器など、特定物体の検出器の検出能力が低下したことから追尾継続性が低下したと判断する方法など、任意の方法を用いてよい。
追尾継続性値は、「大」「中」「小」のように離散値で表現してもよいし、連続値で表現してもよい。
The method for estimating the tracking continuity value is not limited to these methods. For example, any method may be used such as a method of determining that tracking continuity is reduced because the detection capability of a specific object detector such as a human body detector, a spectacles detector, or a clothes detector is reduced.
The tracking continuity value may be expressed as a discrete value such as “large”, “medium”, or “small”, or may be expressed as a continuous value.

ここで、追尾継続性値を離散値として表現する場合の追尾継続性値の一例を説明する。
まず、適当な閾値a、b(a<b)を用意する。
この場合、追尾目標102とPTZカメラ201との推定距離が「a未満の場合」、「a以上b未満の場合」、「b以上の場合」に、追尾継続性値を、それぞれ、「小」、「中」、「大」とすることができる。
また、PTZカメラ201のチルト角φが0〜90°の連続値をとり得るとする。この場合、PTZカメラ201のチルト角φが「a未満の場合」、「a以上b未満の場合」、「b以上の場合」に、追尾継続性値を、それぞれ、「大」、「中」、「小」とすることができる。ただし、ここでは、チルト角φが0°の場合にPTZカメラ201が水平方向を向き、チルト角φが90°の場合にPTZカメラ201が天頂の方向を向くものとして、チルト角φを定めた場合を例に挙げて示した。
Here, an example of the tracking continuity value when the tracking continuity value is expressed as a discrete value will be described.
First, appropriate threshold values a and b (a <b) are prepared.
In this case, the tracking continuity value is set to “small” when the estimated distance between the tracking target 102 and the PTZ camera 201 is “less than a”, “a or more and less than b”, and “b or more”. , “Medium” and “large”.
Further, it is assumed that the tilt angle φ of the PTZ camera 201 can take a continuous value of 0 to 90 °. In this case, when the tilt angle φ of the PTZ camera 201 is “less than a”, “when more than a and less than b”, and “when more than b”, the tracking continuity values are “large” and “medium”, respectively. , “Small”. However, here, the tilt angle φ is determined on the assumption that the PTZ camera 201 faces the horizontal direction when the tilt angle φ is 0 °, and the PTZ camera 201 faces the zenith direction when the tilt angle φ is 90 °. The case is shown as an example.

次に、追尾継続性値を連続値として表現する場合の追尾継続性値の一例を説明する。例えば、チルト角φを用いて、追尾継続性値を90−φと表すことができる。この場合、チルト角φが0°に近い値をとるほど追尾継続性が高く、チルト角φが90°に近い値をとるほど追尾継続性が小さいことを連続的に表現する。   Next, an example of the tracking continuity value when the tracking continuity value is expressed as a continuous value will be described. For example, the tracking continuity value can be expressed as 90−φ using the tilt angle φ. In this case, it is continuously expressed that the tracking continuity is higher as the tilt angle φ is closer to 0 °, and the tracking continuity is lower as the tilt angle φ is closer to 90 °.

目標部決定部458は、撮像データD、追尾目標102の位置情報、および追尾継続性値を、追尾継続性推定部457から受け取る。そして、目標部決定部458は、追尾継続性値に基づいて、画面から目標部を決定する。   The target unit determination unit 458 receives the imaging data D, the position information of the tracking target 102, and the tracking continuity value from the tracking continuity estimation unit 457. And the target part determination part 458 determines a target part from a screen based on a tracking continuity value.

まず、PTZカメラ201が追尾目標102よりも高い位置において、鉛直下向きに設置されている場合を想定する。この場合、図2を参照しながら説明した通り、画面に映る追尾目標102内の下の方の位置を目標部として選択することで、PTZカメラ201と、目標部との実世界(実空間)での距離が大きくなる。したがって、追尾目標102を自動追尾するためにPTZカメラ201が必要とするパン角・チルト角の角速度が小さくなる。このため、PTZカメラ201は、追尾目標102の自動追尾に失敗しにくくなる。   First, it is assumed that the PTZ camera 201 is installed vertically downward at a position higher than the tracking target 102. In this case, as described with reference to FIG. 2, by selecting the lower position in the tracking target 102 displayed on the screen as the target portion, the real world (real space) between the PTZ camera 201 and the target portion. The distance at will increase. Therefore, the angular velocity of the pan angle / tilt angle required for the PTZ camera 201 to automatically track the tracking target 102 is reduced. For this reason, the PTZ camera 201 is less likely to fail to automatically track the tracking target 102.

図5は、追尾継続性値が離散値で与えられる場合の目標部の決定方法の一例を説明する図である。具体的に図5は、追尾継続性値と目標部の位置との関係の一例を表形式で示す図である。図6は、図5に示すおける目標部の位置の一例を示す図である。
図5に示す例では、目標部決定部458は、追尾継続性値が「大」である場合には、追尾目標102の近似図形103の上1/3点105を目標部として決定する(図6を参照)。また、追尾継続性値が「中」である場合には、目標部決定部458は、追尾目標102の近似図形103の中心点104を目標部として決定する(図6を参照)。また、追尾継続性値が「中」である場合には、目標部決定部458は、追尾目標102の近似図形103の下1/4点601を目標部として決定する(図6を参照)。中心点104および上1/3点105は、図2を参照しながら説明した点である。また、下1/4点601は、横方向の位置が、近似図形103の横方向の中央の位置であり、且つ、縦方向の位置が、近似図形103の下端から上の方へ近似図形103の高さの1/4の距離だけ隔てた位置の点である。
FIG. 5 is a diagram for explaining an example of a method for determining a target part when the tracking continuity value is given as a discrete value. Specifically, FIG. 5 is a diagram showing an example of the relationship between the tracking continuity value and the position of the target portion in a table format. FIG. 6 is a diagram showing an example of the position of the target portion shown in FIG.
In the example shown in FIG. 5, when the tracking continuity value is “large”, the target part determining unit 458 determines the upper third point 105 of the approximate figure 103 of the tracking target 102 as the target part (FIG. 5). 6). When the tracking continuity value is “medium”, the target part determining unit 458 determines the center point 104 of the approximate figure 103 of the tracking target 102 as the target part (see FIG. 6). When the tracking continuity value is “medium”, the target part determining unit 458 determines the lower quarter point 601 of the approximate figure 103 of the tracking target 102 as the target part (see FIG. 6). The center point 104 and the upper 1/3 point 105 are points described with reference to FIG. The lower 1/4 point 601 has a horizontal position that is the center position of the approximate figure 103 in the horizontal direction, and a vertical position that extends from the lower end of the approximate figure 103 upward. It is a point at a position separated by a distance of 1/4 of the height of.

前述したように、後段の映像処理機能として、顔認証機能や、眼鏡判別機能を実行する場合には、顔領域(追尾目標102(近似図形103)内の顔の位置)を目標部として決定することが好ましい。また、服装判別機能を実行する場合には、胴体領域(特に上着部分)を目標部として決定することが望ましい。図5に示すように、追尾継続性値が大きいほど(追尾目標102の自動追尾を継続することができる可能性が高いほど)、追尾目標102内の上の方の位置を目標部とすることにより、後段の映像処理機能に適した目標部を決定することができるからである。   As described above, when the face authentication function or the glasses discrimination function is executed as the subsequent video processing function, the face region (the position of the face in the tracking target 102 (approximate figure 103)) is determined as the target part. It is preferable. In addition, when executing the clothing discrimination function, it is desirable to determine the body region (particularly the outer jacket portion) as the target portion. As shown in FIG. 5, the higher the tracking continuity value (the higher the possibility that automatic tracking of the tracking target 102 can be continued), the higher the position within the tracking target 102 is set as the target portion. This is because it is possible to determine a target part suitable for the video processing function in the subsequent stage.

追尾継続性値が連続値で与えられる場合、目標部決定部458は、追尾継続性値がどの値の範囲に含まれるかによって目標部の位置を決定することができる。また、目標部決定部458は、追尾継続性値と目標部の位置との関係を記述した関係式に、追尾継続性値を代入して、目標部の位置を決定することができる。例えば、追尾継続性値をtとする(ただし、tは、0〜90の連続値をとり得るものとする)。この場合、目標部決定部458は、追尾目標102の目標部の位置を、追尾目標102の近似図形103の上端から下の方に、近似図形103の高さのL(t)パーセントだけ隔てた位置として決定することができる。ここで、L(t)は以下の(1)式で表現される。
L(t)=A−t×(A−B)/90 ・・・(1)
(1)式において、A、Bは定数である。例えばA=75、B=33とすると、追尾継続性値が0の場合には、下1/4点601を、追尾継続性値が90の場合には、上1/3点105を、それぞれ目標部として決定することに相当する。追尾継続性値が連続的に変化するのに伴い、目標部の位置も連続的に変化する。
When the tracking continuity value is given as a continuous value, the target part determining unit 458 can determine the position of the target part depending on the range of the tracking continuity value. Further, the target part determination unit 458 can determine the position of the target part by substituting the tracking continuity value into a relational expression describing the relation between the tracking continuity value and the position of the target part. For example, the tracking continuity value is t (where t can be a continuous value from 0 to 90). In this case, the target part determination unit 458 separates the position of the target part of the tracking target 102 from the upper end of the approximate figure 103 of the tracking target 102 by L (t) percent of the height of the approximate figure 103. It can be determined as a position. Here, L (t) is expressed by the following equation (1).
L (t) = A−t × (A−B) / 90 (1)
In the formula (1), A and B are constants. For example, if A = 75 and B = 33, if the tracking continuity value is 0, the lower 1/4 point 601 is set, and if the tracking continuity value is 90, the upper 1/3 point 105 is set, respectively. It corresponds to determining as a target part. As the tracking continuity value changes continuously, the position of the target portion also changes continuously.

以上、PTZカメラ201が追尾目標102よりも高い位置において、鉛直下向きに設置されている場合には、追尾継続性値が小さいほど、画面上において下の方に位置する位置を目標部として決定する。このようにすることで、目標部と、PTZカメラ201との実世界(実空間)での距離が大きくなり、追尾目標102を自動追尾するためにPTZカメラ201が必要とするパン角・チルト角の角速度を大きくすることができる。したがって、追尾目標102の自動追尾に失敗しにくくすることができる。   As described above, when the PTZ camera 201 is installed vertically downward at a position higher than the tracking target 102, the lower the tracking continuity value, the lower the position on the screen is determined as the target portion. . By doing so, the distance between the target unit and the PTZ camera 201 in the real world (real space) is increased, and the pan angle / tilt angle necessary for the PTZ camera 201 to automatically track the tracking target 102. The angular velocity of can be increased. Therefore, the automatic tracking of the tracking target 102 can be made difficult to fail.

目標部の決め方は、PTZカメラ201の設置位置により異なる。例えば、PTZカメラ201が地面に近い位置に設置され、且つ、追尾目標102を見上げるように設置されているとする。この場合は、追尾継続性値が小さいほど、画面上において上の方の位置を目標部として決定することで、PTZカメラ201が自動追尾に失敗しにくいようにすることができる。   The method for determining the target portion differs depending on the installation position of the PTZ camera 201. For example, it is assumed that the PTZ camera 201 is installed at a position close to the ground and is installed so as to look up at the tracking target 102. In this case, as the tracking continuity value is smaller, the upper position on the screen is determined as the target portion, so that the PTZ camera 201 can be made less likely to fail in automatic tracking.

制御命令生成部459は、撮像データDおよび目標部を、目標部決定部458から受け取る。そして、制御命令生成部459は、画面の中央に目標部が表示されるようにするために必要なパン・チルトの移動量を計算する。そして、制御命令生成部459は、雲台に対する制御命令Cを生成して撮像部400に送信する。この制御命令Cには、前記計算したパン・チルトの移動量が含まれる。尚、前記計算の手法として、任意の既知の手法を用いることが可能である。計算方法の一例として特許文献3に記載の手法を利用することが可能である。   The control command generation unit 459 receives the imaging data D and the target unit from the target unit determination unit 458. Then, the control command generation unit 459 calculates the amount of pan / tilt movement necessary to display the target unit at the center of the screen. Then, the control command generation unit 459 generates a control command C for the camera platform and transmits it to the imaging unit 400. The control command C includes the calculated pan / tilt movement amount. Note that any known method can be used as the calculation method. As an example of the calculation method, the method described in Patent Document 3 can be used.

制御命令生成部459は、さらに追尾目標102の画面上の大きさが一定になるように必要なズーム量を、制御命令Cに含めてもよい。さらに、制御命令生成部459は、パン、チルト、ズームの変化速度を制御命令に含めてもよい。パン、チルト、ズームの変化速度は、例えば、追尾目標102の画面内での移動速度に基づいて決定される。   The control command generation unit 459 may further include a necessary zoom amount in the control command C so that the size of the tracking target 102 on the screen is constant. Furthermore, the control command generation unit 459 may include the pan, tilt, and zoom change rates in the control command. The changing speed of pan, tilt, and zoom is determined based on, for example, the moving speed of the tracking target 102 within the screen.

尚、本実施形態において、図4に示す構成を実現するためのハードウェア構成は、特定のハードウェア構成に限定されるものではない。例えば、撮像部400および制御部450を分離した構成とすることもできる。
また、制御部450内の各部等は、ハードウェアで実装されてもよいし、制御部450内のメモリ等に記憶されたプログラムを制御部450が実行することによって実現されるソフトウェアで実装されてもよい。
In the present embodiment, the hardware configuration for realizing the configuration shown in FIG. 4 is not limited to a specific hardware configuration. For example, the imaging unit 400 and the control unit 450 may be separated.
Each unit in the control unit 450 may be implemented by hardware, or implemented by software realized by the control unit 450 executing a program stored in a memory or the like in the control unit 450. Also good.

図7は、追尾システムによる自動追尾処理(物体追尾を自動的に行う処理)の一例を説明するフローチャートである。自動追尾処理の開始直後、全体制御部455は、自動追尾処理におけるモードを、待機モードに保つ。
ステップS701において、全体制御部455は、自動追尾の開始要求が通信I/F部451を通じて外部から与えられるまで待機する。そして、自動追尾の開始要求が与えられると、ステップS702に進み、全体制御部455は、自動追尾処理にけるモードを、待機モードから自動追尾モードに遷移させる。
FIG. 7 is a flowchart for explaining an example of automatic tracking processing (processing for automatically performing object tracking) by the tracking system. Immediately after the start of the automatic tracking process, the overall control unit 455 keeps the mode in the automatic tracking process in the standby mode.
In step S701, the overall control unit 455 waits until an automatic tracking start request is given from the outside through the communication I / F unit 451. When an automatic tracking start request is given, the process advances to step S702, and the overall control unit 455 changes the mode in the automatic tracking process from the standby mode to the automatic tracking mode.

次に、ステップS703において、全体制御部455は、追尾目標決定部456に問い合わせを行い、追尾目標102の決定を依頼する。ユーザが入力装置を用いて明示的に選択した物体を最初の追尾目標102とする場合などのように、外部からの情報を必要とする場合には、全体制御部455は、その情報も追尾目標決定部456に伝える。追尾目標決定部456は、この問い合わせに基づき、追尾目標102を決定する。   Next, in step S703, the overall control unit 455 makes an inquiry to the tracking target determination unit 456 and requests the tracking target 102 to be determined. When information from the outside is required, such as when an object explicitly selected by the user using the input device is used as the first tracking target 102, the overall control unit 455 also displays the information as a tracking target. Tell the decision unit 456. The tracking target determination unit 456 determines the tracking target 102 based on this inquiry.

次に、ステップS704において、全体制御部455は、追尾目標決定部456に問い合わせを行い、追尾目標102の画面内の位置の決定を依頼する。追尾目標決定部456は、この問い合わせに基づき、追尾目標102の画面内の位置を決定する。
次に、ステップS705において、追尾目標決定部456は、追尾目標102が画面内において見つからなかったか否かを判定する。この判定の結果、追尾目標102が画面内において見つかった場合には、ステップS706に進む。一方、追尾目標102が画面内において見つからなかった場合には、後述するステップS711に進む。
Next, in step S704, the overall control unit 455 makes an inquiry to the tracking target determination unit 456 and requests determination of the position of the tracking target 102 within the screen. The tracking target determination unit 456 determines the position of the tracking target 102 in the screen based on this inquiry.
Next, in step S705, the tracking target determination unit 456 determines whether the tracking target 102 has not been found in the screen. As a result of this determination, if the tracking target 102 is found in the screen, the process proceeds to step S706. On the other hand, if the tracking target 102 is not found in the screen, the process proceeds to step S711 described later.

ステップS706に進むと、追尾継続性推定部457は、追尾継続性値を導出する。
次に、ステップS707において、目標部決定部458は、目標部を決定する。
次に、ステップS708において、制御命令生成部459は、雲台に対する制御命令Cを生成する。
In step S706, the tracking continuity estimation unit 457 derives a tracking continuity value.
Next, in step S707, the target part determination unit 458 determines a target part.
Next, in step S708, the control command generation unit 459 generates a control command C for the camera platform.

次に、ステップS709において、撮像部400は、制御命令Cに基づき雲台を動作させ、PTZカメラ201の姿勢(撮像方向)を変更する。
次に、ステップS710において、全体制御部455は、自動追尾の終了要求が通信I/F部451を通じて外部から与えられたか否かを判定する。この判定の結果、自動追尾の終了要求が与えられていない場合には、ステップS704に戻る。
Next, in step S709, the imaging unit 400 operates the camera platform based on the control command C, and changes the posture (imaging direction) of the PTZ camera 201.
Next, in step S710, the overall control unit 455 determines whether or not an automatic tracking end request is given from the outside through the communication I / F unit 451. If the result of this determination is that an automatic tracking end request has not been given, processing returns to step S704.

一方、自動追尾の終了要求が与えられた場合には、ステップ711に進む。
ステップS711に進むと、全体制御部455は、自動追尾モードを終了して、自動追尾処理におけるモードを、自動追尾モードから待機モードに変更する。
On the other hand, if an automatic tracking end request is given, the process proceeds to step 711.
In step S711, the overall control unit 455 ends the automatic tracking mode, and changes the mode in the automatic tracking process from the automatic tracking mode to the standby mode.

<第2の実施形態>
次に、第2の実施形態を説明する。前述した第1の実施形態では、撮像部400の設置条件に関する情報が、制御部450に予め設定され、変更されない場合を例に挙げて説明した。これに対し、本実施形態では、ユーザが、表示装置301などを通じて、撮像部400の設置条件に関する情報である設置情報を、PTZカメラ201に教示する場合を例に挙げて説明する。このように本実施形態は、第1の実施形態に対し、ユーザによる指示に基づき、撮像部400の設置条件を判断し、判断した設置条件に基づいて目標部を決定する構成および処理が付加されたものである。したがって、本実施形態の説明において、第1の実施形態と同一の部分についての詳細な説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. In the first embodiment described above, the case where the information regarding the installation conditions of the imaging unit 400 is preset in the control unit 450 and is not changed has been described as an example. In contrast, in the present embodiment, a case where the user teaches the PTZ camera 201 through the display device 301 or the like to teach the PTZ camera 201 of installation information that is information regarding the installation conditions of the imaging unit 400 will be described as an example. As described above, the present embodiment is added to the first embodiment in the configuration and processing for determining the installation condition of the imaging unit 400 based on an instruction from the user and determining the target unit based on the determined installation condition. It is a thing. Therefore, in the description of the present embodiment, detailed description of the same parts as those of the first embodiment is omitted.

撮像部400の設置条件を示す設置情報は、例えば、以下のようにして制御部450に取り込まれる。まず、表示装置301は、撮像部400の設置条件が、「天井から鉛直下向きに設置」、「壁に設置」、および「足元に設置」のいずれであるかを選択するラジオボタンなどのGUI(グラフィックユーザインタフェース)を表示する。ユーザが、このGUIを用いて、撮像部400の設置条件を選択すると、表示装置301は、選択された撮像部400の設置条件を示す設置情報をネットワーク303経由で制御部450に送信する。   The installation information indicating the installation conditions of the imaging unit 400 is taken into the control unit 450 as follows, for example. First, the display device 301 uses a GUI (such as a radio button) to select whether the installation condition of the imaging unit 400 is “install vertically from the ceiling”, “install on the wall”, or “install on the feet”. Graphic user interface). When the user selects an installation condition of the imaging unit 400 using this GUI, the display device 301 transmits installation information indicating the installation condition of the selected imaging unit 400 to the control unit 450 via the network 303.

目標部決定部458は、通信I/F部451および全体制御部455を介して、前記設置情報を受け取る。目標部決定部458は、受け取った設置情報に応じて、適切な目標部を決定する。例えば、撮像部400の設置位置が、天井から鉛直下向きに設置されているという設置情報に基づき、目標部として近似図形103の下部の領域を選択することで、追尾目標102の自動追尾の成功の確率が上がる、と判断する。そして、目標部決定部458は、追尾継続性値を参照して適切に目標部を決定する。   The target unit determination unit 458 receives the installation information via the communication I / F unit 451 and the overall control unit 455. The target part determination unit 458 determines an appropriate target part according to the received installation information. For example, based on the installation information that the installation position of the imaging unit 400 is installed vertically downward from the ceiling, the area below the approximate figure 103 is selected as the target unit, so that the automatic tracking of the tracking target 102 is successfully performed. Judge that the probability increases. Then, the target part determining unit 458 appropriately determines the target part with reference to the tracking continuity value.

以上のように、前述した実施形態では、追尾目標102の自動追尾の可能性(難易度)を示す追尾継続性値と目標部との関係を示す情報を記憶しておく。そして、追尾継続性値を取得すると、当該追尾継続性値に関連する目標部が画面の中央に表示されるように、パン・チルトの移動量を計算し、計算した移動量だけ、PTZカメラ201の雲台を動かして、撮像部400の撮像方向を変更する。このとき、追尾継続性値が、追尾目標102の自動追尾の可能性が低いことを示す値であるほど、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定する。例えば、撮像部400が追尾目標102よりも高い位置に鉛直下向きに設置されている場合には、追尾継続性値が追尾目標102の自動追尾の可能性が低いことを示す値であるほど、追尾目標102内の下の方の位置を目標部として決定する。
したがって、追尾目標102の自動追尾の失敗の確率が高い状況であっても、画面内における目標部の位置を固定する場合よりも、追尾目標102の自動追尾が失敗する可能性を低減することができる。
As described above, in the above-described embodiment, information indicating the relationship between the tracking continuity value indicating the possibility (difficulty) of automatic tracking of the tracking target 102 and the target portion is stored. When the tracking continuity value is acquired, the pan / tilt movement amount is calculated so that the target portion related to the tracking continuity value is displayed at the center of the screen, and the PTZ camera 201 is calculated by the calculated movement amount. The imaging direction of the imaging unit 400 is changed by moving the pan head. At this time, as the tracking continuity value is a value indicating that the possibility of automatic tracking of the tracking target 102 is lower, a position where the automatic tracking failure of the tracking target 102 is less likely to occur is determined as a target portion. For example, when the imaging unit 400 is installed vertically downward at a position higher than the tracking target 102, the tracking continuity value is a value indicating that the possibility of automatic tracking of the tracking target 102 is low. The lower position in the target 102 is determined as the target portion.
Therefore, even if the probability of failure of automatic tracking of the tracking target 102 is high, the possibility that the automatic tracking of the tracking target 102 will fail can be reduced as compared with the case where the position of the target portion in the screen is fixed. it can.

また、前述した実施形態では、追尾継続性値が、追尾目標102の自動追尾の可能性が低いことを示す値であるほど、後段の映像処理機能に適した位置を目標部にする。例えば、撮像部400が追尾目標102よりも高い位置に鉛直下向きに設置されている場合には、追尾継続性値が、追尾目標102の自動追尾の可能性が高いことを示す値であるほど、追尾目標102内の上の方の位置を目標部として決定する。したがって、追尾目標102の自動追尾の失敗の確率が低い状況においては、追尾目標102が後段の処理にとって好適な位置に映るようにすることができる。   In the above-described embodiment, the position suitable for the video processing function at the subsequent stage is set as the target portion as the tracking continuity value is a value indicating that the tracking target 102 is less likely to be automatically tracked. For example, when the imaging unit 400 is installed vertically downward at a position higher than the tracking target 102, the tracking continuity value is a value indicating that the tracking target 102 is highly likely to be automatically tracked. The upper position in the tracking target 102 is determined as a target portion. Therefore, in a situation where the probability of the automatic tracking failure of the tracking target 102 is low, the tracking target 102 can be reflected in a position suitable for the subsequent processing.

前述した実施形態では、追尾目標102に対する自動追尾の継続の難易度を評価するための指標を取得(検出)し、取得(検出)した情報から追尾継続性値を導出し、当該追尾継続性値に対応する目標部を決定する場合を例に挙げて説明した。前述したように、追尾目標102に対する自動追尾の継続の難易度を評価するための指標は、例えば、追尾目標102の画面上の大きさ、追尾目標102とPTZカメラ201との間の距離、PTZカメラ201のチルト角等である。   In the embodiment described above, an index for evaluating the degree of difficulty in continuing automatic tracking with respect to the tracking target 102 is acquired (detected), a tracking continuity value is derived from the acquired (detected) information, and the tracking continuity value is determined. The case where the target part corresponding to is determined has been described as an example. As described above, for example, the index for evaluating the difficulty of continuing the automatic tracking with respect to the tracking target 102 is the size of the tracking target 102 on the screen, the distance between the tracking target 102 and the PTZ camera 201, and PTZ. For example, the tilt angle of the camera 201.

しかしながら、必ずしも追尾継続性値を(明示的に)導出する必要はない。すなわち、追尾目標102に対する自動追尾の継続の難易度を評価するための指標を取得(検出)すると、当該取得(検出)した情報に対応する目標部の位置を(追尾継続性値を介さずに)決定してもよい。   However, it is not always necessary to derive (explicitly) a tracking continuity value. That is, when an index for evaluating the degree of difficulty in continuing the automatic tracking with respect to the tracking target 102 is acquired (detected), the position of the target portion corresponding to the acquired (detected) information can be determined (without using the tracking continuity value). ) You may decide.

尚、図5を参照しながら説明したように、前記取得(検出)した情報により示される値が所定の範囲にある場合には、同一の目標部が決定されるようにすることができる。したがって、前記取得(検出)した情報により示される値が変わった場合に、目標部の位置を必ず変えなければならないというわけではない。即ち、前記取得(検出)した情報が、追尾目標102に対する自動追尾の継続の難易度が相対的に低いことを示す場合よりも高いことを示す場合の方が、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定し得るようにしていればよい。より具体的に説明すると、前者の場合と後者の場合とで、目標部の位置を同じにするか、または、後者の場合の方が前者の場合よりも、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定する。ただし、後者の場合の方が、前者の場合よりも、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定することがあるようにする。
一方、前記取得(検出)した情報により示される値が変わった場合に、目標部の位置を必ず変えるようにしてもよい。
Note that, as described with reference to FIG. 5, when the value indicated by the acquired (detected) information is within a predetermined range, the same target portion can be determined. Therefore, when the value indicated by the acquired (detected) information changes, the position of the target portion does not necessarily have to be changed. That is, when the acquired (detected) information indicates that the degree of difficulty in continuing the automatic tracking with respect to the tracking target 102 is relatively low, the automatic tracking of the tracking target 102 fails. It suffices if the position where the occurrence of the occurrence of the problem is difficult can be determined as the target portion. More specifically, the position of the target portion is made the same in the former case and the latter case, or the automatic tracking of the tracking target 102 is more failed in the latter case than in the former case. A position where it is difficult to occur is determined as a target portion. However, in the latter case, a position where the automatic tracking failure of the tracking target 102 is less likely to occur is determined as a target portion than in the former case.
On the other hand, when the value indicated by the acquired (detected) information changes, the position of the target portion may be changed.

<その他の実施例>
尚、本発明は、例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other examples>
The present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。   The present invention can also be realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.

また、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

201:PTZカメラ、400:撮像部、450:制御部   201: PTZ camera, 400: imaging unit, 450: control unit

Claims (15)

撮像方向を自動的に変更することが可能な撮像手段で撮像された画像から、当該撮像手段で自動追尾する移動物体を抽出する抽出手段と、
前記抽出手段により抽出された前記移動物体に対する自動追尾の継続の難易度を評価するための指標を取得する取得手段と、
前記取得手段により取得された前記指標に基づいて、前記画像における目標部を決定する決定手段と、
前記決定手段により決定された目標部に基づいて、前記撮像手段による前記撮像方向の変更を指示する指示手段と、を有し、
前記決定手段は、前記指標により評価される前記難易度が相対的に高い場合の方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする物体追尾装置。
An extraction means for extracting a moving object automatically tracked by the imaging means from an image taken by the imaging means capable of automatically changing the imaging direction;
Obtaining means for obtaining an index for evaluating a difficulty level of continuation of automatic tracking for the moving object extracted by the extracting means;
Determining means for determining a target portion in the image based on the index acquired by the acquiring means;
Instruction means for instructing change of the imaging direction by the imaging means based on the target portion determined by the determining means;
The determination unit is more likely to fail in automatic tracking of the moving object when the difficulty level evaluated by the index is relatively higher than when the difficulty level evaluated by the index is relatively low. An object tracking device characterized in that a position where it is difficult to occur can be determined as the target portion.
前記指標は、前記撮像手段の実空間における位置と、前記移動物体の実空間における位置との関係に基づいて定まる指標であることを特徴とする請求項1に記載の物体追尾装置。   The object tracking device according to claim 1, wherein the index is an index determined based on a relationship between a position of the imaging unit in real space and a position of the moving object in real space. 前記指標は、前記撮像手段と前記移動物体との間の距離であり、
前記決定手段は、前記撮像手段と前記移動物体との間の距離が、相対的に小さい場合の方が、前記撮像手段と前記移動物体との間の距離が、相対的に大きい場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。
The index is a distance between the imaging means and the moving object,
The determination unit is configured such that when the distance between the imaging unit and the moving object is relatively small, compared to when the distance between the imaging unit and the moving object is relatively large, The object tracking device according to claim 1, wherein a position where the failure of the automatic tracking of the moving object is less likely to occur can be determined as the target unit.
前記指標は、前記画像における前記移動物体の大きさであり、
前記決定手段は、前記画像における前記移動物体の大きさが、相対的に大きい場合の方が、前記画像における前記移動物体の大きさが、相対的に小さい場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。
The indicator is the size of the moving object in the image,
The determination means performs automatic tracking of the moving object when the size of the moving object in the image is relatively larger than when the size of the moving object in the image is relatively small. The object tracking device according to claim 1, wherein a position where the failure is less likely to occur is determined as the target unit.
前記指標は、前記撮像手段のチルト角であり、
前記決定手段は、前記撮像手段のチルト角が、相対的に天頂に近い角度である場合の方が、前記撮像手段のチルト角が、相対的に天頂から遠い角度である場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。
The index is a tilt angle of the imaging means,
The determination means moves the movement when the tilt angle of the imaging means is relatively closer to the zenith than when the tilt angle of the imaging means is relatively far from the zenith. The object tracking device according to claim 1, wherein a position at which failure of automatic tracking of an object hardly occurs can be determined as the target unit.
前記指標は、前記撮像方向を変更するために前記撮像手段が単位時間に動く角度であり、
前記決定手段は、前記撮像方向を変更するために前記撮像手段が単位時間に動く角度が、相対的に大きい角度である場合の方が、前記撮像方向を変更するために前記撮像手段が単位時間に動く角度が、相対的に小さい角度である場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。
The index is an angle at which the imaging means moves per unit time to change the imaging direction,
In the case where the angle at which the imaging unit moves in unit time to change the imaging direction is a relatively large angle, the determination unit is configured to change the imaging direction in unit time. The position where the failure of automatic tracking of the moving object is less likely to occur than when the moving angle is a relatively small angle can be determined as the target portion. 2. The object tracking device according to 2.
前記移動物体の自動追尾の失敗が起こりにくくなる位置は、前記撮像手段と前記目標部との間の実空間における距離が大きくなる位置であることを特徴とする請求項1〜6の何れか1項に記載の物体追尾装置。   The position where the failure of the automatic tracking of the moving object is less likely to occur is a position where a distance in the real space between the imaging unit and the target unit becomes large. The object tracking device according to the item. 前記撮像手段は、鉛直下向きに設置され、
前記決定手段は、前記指標により評価される前記難易度が相対的に高い場合の方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記画像における下の位置を前記目標部として決定し得るようにしたことを特徴とする請求項1〜7の何れか1項に記載の物体追尾装置。
The imaging means is installed vertically downward,
The determining means determines the lower position in the image when the difficulty level evaluated by the index is relatively higher than when the difficulty level evaluated by the index is relatively low. The object tracking device according to claim 1, wherein the object tracking device can be determined as a target portion.
前記決定手段は、前記指標により評価される前記難易度が高いことを表す指標であるほど、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定することを特徴とする請求項1〜8の何れか1項に記載の物体追尾装置。   The determination means determines, as the target unit, a position at which the failure of automatic tracking of the moving object is less likely to occur as the degree of difficulty evaluated by the index is higher. The object tracking device according to claim 1. 前記決定手段は、前記指標により評価される前記難易度が相対的に低い場合の方が、前記指標により評価される前記難易度が相対的に高いことを表す指標である場合よりも、前記目標部が決定された後に前記画像に対して行われる処理に適した位置を前記目標部として決定し得るようにしたことを特徴とする請求項1〜9の何れか1項に記載の物体追尾装置。   In the determination means, the target when the degree of difficulty evaluated by the index is relatively lower than the case where the degree of difficulty evaluated by the index is relatively high is the target. The object tracking device according to any one of claims 1 to 9, wherein a position suitable for processing performed on the image after a part is determined can be determined as the target part. . 前記指標に基づいて、前記移動物体に対する自動追尾の継続の難易度を示す値を導出する導出手段をさらに有し、
前記決定手段は、前記値と前記目標部の位置との関係と、前記導出手段により導出された前記値とに基づいて、前記目標部の位置を決定し、
前記関係は、前記値が、前記難易度が高いことを示す値であるほど、前記目標部の位置が、前記移動物体の自動追尾の失敗が起こりにくくなる位置になる関係であることを特徴とする請求項1〜10の何れか1項に記載の物体追尾装置。
Based on the index, further comprising a derivation means for deriving a value indicating a difficulty level of continuation of automatic tracking for the moving object;
The determining means determines the position of the target portion based on the relationship between the value and the position of the target portion and the value derived by the derivation means,
The relationship is a relationship in which, as the value is a value indicating that the degree of difficulty is high, the position of the target unit becomes a position where the failure of automatic tracking of the moving object is less likely to occur. The object tracking device according to any one of claims 1 to 10.
前記指示手段は、前記目標部が前記画像の中心の位置になるように、前記撮像手段による前記撮像方向の変更を指示することを特徴とする請求項1〜11の何れか1項に記載の物体追尾装置。   The said instruction | indication means instruct | indicates the change of the said imaging direction by the said imaging means so that the said target part may become the center position of the said image, The any one of Claims 1-11 characterized by the above-mentioned. Object tracking device. 前記決定手段は、前記撮像手段の設置条件に応じて、前記移動物体の自動追尾の失敗が起こりにくくなる位置を変更することを特徴とする請求項1〜12の何れか1項に記載の物体追尾装置。   The object according to any one of claims 1 to 12, wherein the determination unit changes a position at which failure of automatic tracking of the moving object is less likely to occur according to an installation condition of the imaging unit. Tracking device. 撮像方向を自動的に変更することが可能な撮像手段で撮像された画像から、当該撮像手段で自動追尾する移動物体を抽出する抽出工程と、
前記抽出工程により抽出された前記移動物体に対する自動追尾の継続の難易度を評価するための指標を取得する取得工程と、
前記取得工程により取得された前記指標に基づいて、前記画像における目標部を決定する決定工程と、
前記決定工程により決定された目標部に基づいて、前記撮像手段による前記撮像方向の変更を指示する指示工程と、を有し、
前記決定工程は、前記指標により評価される前記難易度が相対的に高い方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする物体追尾方法。
An extraction step of extracting a moving object to be automatically tracked by the imaging unit from an image captured by the imaging unit capable of automatically changing the imaging direction;
An acquisition step of acquiring an index for evaluating the difficulty level of continuation of automatic tracking for the moving object extracted by the extraction step;
A determination step of determining a target portion in the image based on the index acquired by the acquisition step;
An instruction step for instructing the change of the imaging direction by the imaging means based on the target portion determined by the determination step;
In the determining step, when the degree of difficulty evaluated by the index is relatively high, a failure in automatic tracking of the moving object occurs than when the degree of difficulty evaluated by the index is relatively low. An object tracking method characterized in that a position to be difficult can be determined as the target portion.
請求項1〜13の何れか1項に記載の物体追尾装置の各手段としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the object tracking device according to any one of claims 1 to 13.
JP2014205124A 2014-10-03 2014-10-03 Object tracking device, object tracking method, and program Pending JP2016076791A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014205124A JP2016076791A (en) 2014-10-03 2014-10-03 Object tracking device, object tracking method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014205124A JP2016076791A (en) 2014-10-03 2014-10-03 Object tracking device, object tracking method, and program

Publications (1)

Publication Number Publication Date
JP2016076791A true JP2016076791A (en) 2016-05-12

Family

ID=55951773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014205124A Pending JP2016076791A (en) 2014-10-03 2014-10-03 Object tracking device, object tracking method, and program

Country Status (1)

Country Link
JP (1) JP2016076791A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212581A (en) * 2016-05-25 2017-11-30 キヤノン株式会社 Tracker, tracking method and program
WO2019129255A1 (en) * 2017-12-29 2019-07-04 华为技术有限公司 Target tracking method and device
JP2020053028A (en) * 2018-08-10 2020-04-02 オーロラ フライト サイエンシズ コーポレーション Object-tracking system
CN113301256A (en) * 2021-05-23 2021-08-24 成都申亚科技有限公司 Camera module with low power consumption and multi-target continuous automatic monitoring function and camera shooting method thereof
KR102513372B1 (en) * 2023-01-12 2023-03-23 에코아이넷 주식회사 Hybrid type object tracking system based on sound and image and control method using the same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212581A (en) * 2016-05-25 2017-11-30 キヤノン株式会社 Tracker, tracking method and program
KR20170133269A (en) * 2016-05-25 2017-12-05 캐논 가부시끼가이샤 Video processing apparatus, video processing method, and program
KR102213328B1 (en) * 2016-05-25 2021-02-08 캐논 가부시끼가이샤 Video processing apparatus, video processing method, and program
WO2019129255A1 (en) * 2017-12-29 2019-07-04 华为技术有限公司 Target tracking method and device
US11276185B2 (en) 2017-12-29 2022-03-15 Huawei Technologies Co., Ltd. Target tracking method and apparatus
JP2020053028A (en) * 2018-08-10 2020-04-02 オーロラ フライト サイエンシズ コーポレーション Object-tracking system
CN113301256A (en) * 2021-05-23 2021-08-24 成都申亚科技有限公司 Camera module with low power consumption and multi-target continuous automatic monitoring function and camera shooting method thereof
CN113301256B (en) * 2021-05-23 2023-12-22 成都申亚科技有限公司 Low-power-consumption multi-target continuous automatic monitoring camera module and camera method thereof
KR102513372B1 (en) * 2023-01-12 2023-03-23 에코아이넷 주식회사 Hybrid type object tracking system based on sound and image and control method using the same

Similar Documents

Publication Publication Date Title
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP4241742B2 (en) Automatic tracking device and automatic tracking method
KR101687530B1 (en) Control method in image capture system, control apparatus and a computer-readable storage medium
KR102349242B1 (en) Tracker assisted image capture
WO2018228410A1 (en) Target object capturing method and device, and video monitoring device
JP2016076791A (en) Object tracking device, object tracking method, and program
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
CN107079098B (en) Image playing method and device based on PTZ camera
JP4578864B2 (en) Automatic tracking device and automatic tracking method
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
JP2006259847A (en) Automatic tracking device and automatic tracking method
JP6798609B2 (en) Video analysis device, video analysis method and program
KR102107137B1 (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
JP2001320699A (en) Intruded object monitoring method and intruded object monitoring system
JP5033412B2 (en) Monitoring system, monitoring method, and program
JP6483326B2 (en) Monitoring system and terminal device
KR102576795B1 (en) Method for obtaining frontal image based on pose estimation and apparatus using the same
EP4187912A1 (en) Camera control apparatus, camera control method, and non-transitory storage medium
KR20150050224A (en) Apparatus and methdo for abnormal wandering
JP2023180468A (en) Image processing device and method, imaging system, program and storage medium
JP2020027463A (en) Image processing device
JP2019179952A (en) Image photographing apparatus, image transmission method, and image analysis system