JP2016076791A - Object tracking device, object tracking method, and program - Google Patents
Object tracking device, object tracking method, and program Download PDFInfo
- Publication number
- JP2016076791A JP2016076791A JP2014205124A JP2014205124A JP2016076791A JP 2016076791 A JP2016076791 A JP 2016076791A JP 2014205124 A JP2014205124 A JP 2014205124A JP 2014205124 A JP2014205124 A JP 2014205124A JP 2016076791 A JP2016076791 A JP 2016076791A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- target
- imaging
- unit
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、物体追尾装置、物体追尾方法、およびプログラムに関し、特に、撮像手段が物体を自動追尾するために用いて好適なものである。 The present invention relates to an object tracking device, an object tracking method, and a program, and is particularly suitable for use by an imaging unit to automatically track an object.
監視およびモニタリングシステムでは、PTZカメラとよばれるパン・チルト・ズームを自動的に調節することが可能なカメラを用いた自動追尾技術が知られている。かかる自動追尾技術では、追尾目標が常に撮像され続けるように、PTZカメラのパン・チルト・ズームを自動的に制御する。ここでパンとは、カメラの向きを左右に振ることを意味する。チルトとは、カメラの向きを上下に振ることを意味する。ズームとは、画角を望遠または広角に変化させることを意味する。 In the monitoring and monitoring system, an automatic tracking technique using a camera called a PTZ camera that can automatically adjust pan, tilt, and zoom is known. In such automatic tracking technology, pan / tilt / zoom of the PTZ camera is automatically controlled so that the tracking target is continuously imaged. Here, panning means that the direction of the camera is shaken from side to side. Tilt means to shake the camera up and down. Zooming means changing the angle of view to a telephoto or wide angle.
特許文献1では、PTZカメラが静止しているときにフレーム間差分を用いて移動体を検知し、検知した移動体をPTZカメラで追尾する技術が開示されている。特許文献1では、移動体の移動方向および速度を差分画像から推定し、移動体を撮像画面の中心近くで捉えるために必要なパン・チルト値を算出する。 Patent Document 1 discloses a technique for detecting a moving body using a difference between frames when the PTZ camera is stationary, and tracking the detected moving body with the PTZ camera. In Patent Document 1, the moving direction and speed of the moving body are estimated from the difference image, and a pan / tilt value necessary for capturing the moving body near the center of the imaging screen is calculated.
特許文献2では、店の入り口のカメラにて顔画像を最適な状態で撮像することを目的に、顔画像を抽出して追尾し、カメラの方向制御部、ズーム制御部、および露光制御部を制御する技術が開示されている。 In Patent Document 2, in order to capture a face image in an optimal state with a camera at the entrance of the store, the face image is extracted and tracked, and a camera direction control unit, zoom control unit, and exposure control unit are provided. Techniques for controlling are disclosed.
特許文献3では、画面上に表示された追尾目標の座標をもとに、追尾目標を画面中心に表示するために必要なPTZカメラの制御パラメータを計算する方法が開示されている。 Patent Document 3 discloses a method for calculating control parameters of a PTZ camera necessary for displaying the tracking target at the center of the screen based on the coordinates of the tracking target displayed on the screen.
しかしながら、特許文献1〜3に記載の技術では、追尾目標の位置や動き等によっては、撮像手段が追尾目標の自動追尾に失敗する虞がある。例えば、追尾目標としての人物領域の重心位置が、常に画面の中心になるように、撮像手段の撮像方向を移動させた場合、自動追尾に失敗する虞がある。 However, in the techniques described in Patent Documents 1 to 3, depending on the position and movement of the tracking target, the imaging unit may fail to automatically track the tracking target. For example, when the imaging direction of the imaging means is moved so that the center of gravity of the person area as the tracking target is always at the center of the screen, there is a risk that automatic tracking will fail.
本発明はこのような問題点に鑑みなされたものであり、撮像手段が追尾目標の自動追尾に失敗する可能性を低くすることを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to reduce the possibility that the imaging means will fail to automatically track the tracking target.
本発明の物体追尾装置は、撮像方向を自動的に変更することが可能な撮像手段で撮像された画像から、当該撮像手段で自動追尾する移動物体を抽出する抽出手段と、前記抽出手段により抽出された前記移動物体に対する自動追尾の継続の難易度を評価するための指標を取得する取得手段と、前記取得手段により取得された前記指標に基づいて、前記画像における目標部を決定する決定手段と、前記決定手段により決定された目標部に基づいて、前記撮像手段による前記撮像方向の変更を指示する指示手段と、を有し、前記決定手段は、前記指標により評価される前記難易度が相対的に高い場合の方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする。 The object tracking device according to the present invention includes an extraction unit that extracts a moving object that is automatically tracked by the imaging unit from an image captured by the imaging unit that can automatically change the imaging direction, and the extraction unit extracts the moving object. Acquisition means for acquiring an index for evaluating the degree of difficulty of continuation of automatic tracking for the moving object, and determination means for determining a target portion in the image based on the index acquired by the acquisition means; And an instruction means for instructing the change of the imaging direction by the imaging means based on the target portion determined by the determination means, and the determination means has a relative degree of difficulty evaluated by the index. The position where the failure of automatic tracking of the moving object is less likely to occur when the target is higher than the case where the degree of difficulty evaluated by the index is relatively low is defined as the target unit. Characterized by being adapted to determine Te.
本発明によれば、撮像手段が追尾目標の自動追尾に失敗する可能性を低くすることができる。 According to the present invention, it is possible to reduce the possibility that the imaging unit will fail to automatically track the tracking target.
本発明の実施形態を説明する前に、本発明の実施形態の前提となる事項について説明する。
自動追尾技術では、画面内における追尾目標の探索と、探索した追尾目標が画面内に映るようなカメラの制御パラメータの計算とを繰り返すことで追尾目標を追尾し続けるのが一般的である。
Before describing the embodiment of the present invention, the premise of the embodiment of the present invention will be described.
In the automatic tracking technology, it is common to keep track of a tracking target by repeating the search for the tracking target in the screen and the calculation of the control parameters of the camera so that the searched tracking target appears in the screen.
このとき、追尾目標は、矩形や楕円などの簡単な図形で近似されることが多い。また、追尾目標を近似する図形内の或る部分を目標部として選択し、その目標部が画面の中央に位置するようにカメラの制御パラメータを計算する。どの部分を目標部として選ぶのが好適であるのかは、自動追尾の目的により異なる。通常は、追尾目標が画面の中心、または、画面の中心よりもやや下に撮像されるようにするようにするため、近似図形の上半分の領域から目標部を選ぶことが多い。 At this time, the tracking target is often approximated by a simple figure such as a rectangle or an ellipse. Also, a certain part in the figure that approximates the tracking target is selected as a target part, and the camera control parameters are calculated so that the target part is located at the center of the screen. Which part is preferably selected as the target part depends on the purpose of automatic tracking. Normally, the target portion is often selected from the upper half area of the approximate figure so that the tracking target is imaged at the center of the screen or slightly below the center of the screen.
図1は、目標部の設定方法の一例を説明する図である。
図1において、PTZカメラで撮像される画像101内に、追尾目標102が映し出されている様子を示す。移動方向106を示す矢印線は、追尾目標102が当該矢印線の方向に移動中であることを示す。追尾目標102の形は、近似図形103に近似される。図1では、近似図形103が矩形である場合を例に挙げて示す。中心点104は、近似図形103の中心点を表す。上1/3点105は、横方向の位置が、近似図形103の横方向の中央の位置であり、且つ、縦方向の位置が、近似図形103の上端から下の方へ近似図形103の高さの1/3の距離だけ隔てた位置の点である。尚、近似図形103、中心点104、および上1/3点105は、通常は、画像101内に表示されない。
FIG. 1 is a diagram illustrating an example of a method for setting a target portion.
FIG. 1 shows a state in which a
PTZカメラは、中心点104を常に目標部とすることで追尾目標102の全身を画面の中央に映すことができる。また、PTZカメラは、上1/3点105を常に目標部とすることで追尾目標102の上半身を画面の中央に映すことができる。
図1に示す例では、目標部が点である場合を例に挙げて示す。しかしながら、目標部として、点よりも大きな領域を用いることもできる。例えば、顔全体の領域を目標部として選ぶこともできる。
The PTZ camera can project the whole body of the
In the example illustrated in FIG. 1, a case where the target portion is a point is described as an example. However, a region larger than a point can be used as the target portion. For example, the entire face area can be selected as the target portion.
もし、PTZカメラが撮像した画像を用いて、後段で何らかの映像処理を行う場合には、当該映像処理を行う機能が最も有効に働く部分を目標部として選ぶようにすることが考えられる。例えば、後段の映像処理機能として、顔認証機能や眼鏡判別機能がある場合には、追尾目標の顔領域を目標部として選ぶことができる。また、後段の映像処理機能として、服装判別機能がある場合は、追尾目標の胴体領域を目標部として選ぶことができる。 If some video processing is performed at a later stage using an image captured by the PTZ camera, it is conceivable to select a portion that functions most effectively as the target portion. For example, when there is a face authentication function or a glasses discrimination function as the video processing function in the subsequent stage, the tracking target face area can be selected as the target portion. Further, when there is a clothing discrimination function as a subsequent video processing function, the body area of the tracking target can be selected as the target portion.
しかしながら、常に同じ領域を目標部として選ぶことにより、特定の状況において自動追尾に失敗しやすくなる。
図2は、自動追尾に失敗しやすくなる状況の一例を説明する図である。図2では、追尾目標102よりも高い位置に、PTZカメラ201(の天頂の方向)が鉛直下向きに設置されている場合を例に挙げて示す。追尾目標102は、PTZカメラ201から数m離れた直線202上を、地点203から地点204を経由して地点205へ移動するものとする。このとき、目標部として、近似図形103内の上の方の位置、例えば、中心点104や上1/3点105を選択する場合、自動追尾に失敗しやすくなる。
However, by always selecting the same area as the target part, automatic tracking tends to fail in a specific situation.
FIG. 2 is a diagram illustrating an example of a situation in which automatic tracking is likely to fail. FIG. 2 shows an example in which the PTZ camera 201 (the direction of the zenith) is installed vertically downward at a position higher than the
その理由を以下に説明する。
追尾目標102が、PTZカメラ201に近い位置を移動する場合、PTZカメラ201のパン角・チルト角が瞬間的に大きく変化する。図2に示す例の場合、追尾目標102が地点203または地点205付近を移動するときには、パン角・チルト角の角速度は小さく、また、チルト角は水平方向に近い角度になる。一方、追尾目標102が地点204付近を移動するときは、パン角・チルト角とも角速度が大きくなり、なおかつチルト角が天頂の方向に深く沈みこむ。
The reason will be described below.
When the
この際、目標部として、近似図形103内の上の方の位置を選択する場合と、下の方の位置を選択する場合とを比較すると、前者の場合の方が、後者の場合よりも、目標部と、PTZカメラ201との実世界(実空間)での距離が短くなる。従って、前者の場合の方が、後者の場合よりも、自動追尾の継続に必要なPTZカメラ201のパン角およびチルト角の角速度が大きくなる。従って、目標部として、近似図形103内の上の方の位置を選択する場合には、下の方の位置を選択する場合よりも、自動追尾に失敗しやすくなる。
本発明者らは、このように、目標部と、PTZカメラ201との実世界(実空間)での距離に応じて、自動追尾に失敗しやすさが異なることに着目し、以下に説明する本発明の実施形態に至った。
At this time, when selecting the upper position in the approximate figure 103 as the target portion and the case of selecting the lower position, the former case is more preferable than the latter case. The distance between the target unit and the
The present inventors pay attention to the fact that the likelihood of failing in automatic tracking differs according to the distance between the target unit and the
以下、本発明の実施形態について図面に基づいて説明する。
(第1の実施形態)
図3は、本実施形態における追尾システムの構成の一例を示す図である。
図3において、追尾システムは、PTZカメラ201、表示装置301、および録画装置302を有する。PTZカメラ201、表示装置301、および録画装置302は、ネットワーク303経由で相互に通信可能に接続される。PTZカメラ201は、表示装置301、録画装置302からの要求に対して、PTZカメラ201で撮像された画像304を送信する。録画装置302は、PTZカメラ201から取得した画像304を記録媒体に保存する。表示装置301は、PTZカメラ201から取得した画像304や、録画装置302に保存された画像304を読み出して表示したり、図示しない入力装置を通じてユーザからの要求を受け取り、PTZカメラ201へ要求を送信したりする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 3 is a diagram illustrating an example of the configuration of the tracking system according to the present embodiment.
In FIG. 3, the tracking system includes a
図4は、PTZカメラ201の構成の一例を示す図である。
PTZカメラ201は、撮像部400と制御部450とを有する。
撮像部400は、CMOSセンサやCCDセンサなどの固体撮像素子と、雲台とを含む。撮像部400は、パン、チルト、およびズームの少なくとも何れか1つを変化させて画像304を撮像することができる。
FIG. 4 is a diagram illustrating an example of the configuration of the
The
The imaging unit 400 includes a solid-state imaging device such as a CMOS sensor or a CCD sensor, and a camera platform. The imaging unit 400 can capture the
通信I/F部451は、HTTPやTCP/IPなどの通信方式に基づき情報の送受信を行う。
映像入力部452は、撮像部400から撮像データDを受け取る。ここで、撮像データDとは、撮像部400により撮像された画像304、およびその画像304の撮像時の撮像部400の姿勢情報(パン値、チルト値、ズーム値)を含むデータである。
The communication I /
The
映像符号化部453は、映像入力部452から撮像データDを受け取り、画像304を適当な符号化方式で符号化する。ここで、符号化方式としては、JPEG、MPEG−2、MPEG−4、およびH.264等の方式がある。符号化された画像304は、映像送信部454から、通信I/F部451経由で外部へ送信される。
The
全体制御部455は、PTZカメラ201を構成するモジュールの制御を行う。
映像入力部452によって取得された撮像データDは追尾目標決定部456にも送信される。追尾目標決定部456は、通信I/F部451および全体制御部455を経由して、表示装置301などから、自動追尾の開始要求と自動追尾の終了要求とを受け取る。追尾目標決定部456は、自動追尾の開始要求を受け取ってから、自動追尾の終了要求を受け取るまでの間、追尾目標102の位置情報を決定して出力する。
The
The imaging data D acquired by the
追尾目標決定部456は、自動追尾の開始要求を受け取った後に、追尾目標102を決定する。追尾目標102としては、動画像処理によって画像304の中から自動的に検出した移動物体、もしくはユーザが明示的に選択した移動物体のいずれかが用いられることが一般的である。前者のようにして移動物体を追尾目標102として検出する場合には、背景差分法や動きベクトル検出による動体領域の検出結果や、機械学習を用いた人体や顔など、移動物体の特定の領域の検出器の検出結果を用いることができる。ただし、追尾目標102の選択方法はこれらに限定されるものではなく、任意の方法でよい。特許文献1に記載の方法はその一例である。
The tracking
追尾目標決定部456は、追尾目標102を決定すると、その追尾目標102が画面内に表示され続けている限り、追尾目標102の画面内の位置を決定して出力する。追尾目標102の画面内の位置の決定方法として、例えば、以下の方法がある。まず、追尾目標決定部456は、追尾目標102の決定時に、撮像データDから、テンプレートや画像特徴量を抽出する。そして、追尾目標決定部456は、テンプレートや画像特徴量に対して適当な指標を定義しておくことで、現在の撮像データDから、追尾目標102が存在する確率の最も高い位置を、追尾目標102の画面内の位置として探索して出力する。この探索の結果、追尾目標102が画面内に存在しないと判断した場合、追尾目標決定部456は、その旨を出力する。
After determining the
追尾目標102の画面内の位置を探索する方法のより具体的な例として、テンプレートを用いる探索の方法について説明する。
まず、追尾目標決定部456は、追尾目標102の決定時に、追尾目標102を含む近似図形103から、画像304の輝度に基づくテンプレートを抽出しておく。追尾目標決定部456は、次の画像304が入ってきたとき、テンプレートを画面内にてスライディングウィンドウ方式で少しずつ移動させ、SSD(Sum of Squared Difference)が最小になる位置を探す。追尾目標決定部456は、その位置に追尾目標102が存在していると判断する。ここで、SSDとは、画像間の相違度を数値化した指標である。SSDがある閾値以下になる箇所が一つも存在しない場合、追尾目標決定部456は、追尾目標102が画面内に存在しないと判断する。
A search method using a template will be described as a more specific example of a method for searching the position of the
First, the tracking
追尾目標102の画面内の位置の決定方法は、前述した方法に限定されるものではない。例えば、特徴点の動きベクトルを用いて動き方向と動き量を推定する方法や、フレーム間差分により複数の動体を抽出し、それら複数の導体の中から一つを選ぶ方法など、位置を決定できる任意の方法を用いてよい。
The method for determining the position of the
追尾目標決定部456は、例えば、追尾目標102を矩形や楕円などの簡単な近似図形103で近似した後、その近似図形103の画面内での座標情報によって、追尾目標102の位置情報を表現する。ただし、追尾目標102の位置情報の表現方法はこの方法に限定されるものではない。例えば、追尾目標102の輪郭や、追尾目標102を構成する画素やブロックの集合など、追尾目標102の画面内の位置を特定する任意の表現方法を用いてよい。
The tracking
また、追尾目標102の位置を決定する方法として、未来の追尾目標の位置を推定する方法を用いてもよい。例えば、追尾目標102の移動方向と移動速度とを推定し、一定時間後の追尾目標102の画面上の位置を予測し、その位置に基づいて、追尾目標102の位置情報を作成してもよい。
Further, as a method for determining the position of the
追尾継続性推定部457は、追尾目標決定部456から、撮像データDおよび追尾目標102の位置情報を受け取る。そして、追尾継続性推定部457は、追尾継続性を推定する。ここで、追尾継続性とは、追尾目標102の自動追尾を継続することに成功する確率の高低のことである。以下の説明では、追尾目標102に対する自動追尾の難易度が相対的に低く、自動追尾を継続することがうまくいきそうな状況のことを、必要に応じて、追尾継続性が高いと表現する。逆に、追尾目標102に対する自動追尾の難易度が相対的に高く、自動追尾に失敗して追尾目標102を画面内にとらえ続けられなくなってしまいそうな状況のことを、必要に応じて、追尾継続性が低いと表現する。
The tracking
本実施形態では、追尾継続性が高いほど、追尾目標102に対する自動追尾の継続の可能性(難易度)を示す追尾継続性値が大きい値を示すものとする。追尾継続性値は、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、PTZカメラ201の設置状況と、PTZカメラ201の位置と追尾目標102の位置との関係などに基づき定められる指標を用いて推定される。
例えば、PTZカメラ201のズーム値が同じであると仮定すれば、追尾目標102がPTZカメラ201に近い位置を移動している場合ほど、追尾継続性値が小さい(追尾継続性が低い)と判断できる。
In this embodiment, it is assumed that the higher the tracking continuity is, the larger the tracking continuity value indicating the possibility (difficulty) of continuing automatic tracking for the
For example, assuming that the zoom values of the
このようにして追尾継続性を判断する場合、追尾継続性推定部457は、追尾目標102とPTZカメラ201との間の(実空間における)距離を、例えば、追尾目標102の画面上の大きさによって推測することができる。また、追尾継続性推定部457は、距離センサやステレオカメラなどの図示しない装置によって、追尾目標102とPTZカメラ201との間の(実空間における)距離を計測することができる。このように、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、追尾目標102の画面上の大きさ、または、追尾目標102とPTZカメラ201との間の距離を用いることができる。
When determining tracking continuity in this way, the tracking
また、PTZカメラ201が追尾目標102よりも高い位置に鉛直下向きに設置されている場合、追尾目標102がPTZカメラ201に近い位置にあるときほどPTZカメラ201のチルト角が天頂の方向に深く沈む。そのため、追尾継続性推定部457は、チルト角の大きさを用いて、追尾目標102とPTZカメラ201との間の(実空間における)距離を近似することも可能である。この場合、例えば、PTZカメラ201のチルト角が天頂から遠い方向(水平方向)に近い場合ほど、追尾継続性値が小さい(追尾継続性が低い)と推定することができる。このように、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、PTZカメラ201のチルト角を用いることができる。
Further, when the
また、追尾継続性推定部457は、PTZカメラ201により撮像された、直近の所定数のフレームにおける、パン角・チルト角の変化速度(単位時間当たりに動く角度)が大きいほど、追尾継続性値が小さい(追尾継続性が低い)と推定することができる。このように、追尾目標102に対する自動追尾の継続の可能性(難易度)を評価するための指標として、例えば、パン角・チルト角の変化速度(単位時間当たりに動く角度)を用いることができる。
Also, the tracking
追尾継続性値の推定方法は、これらの方法に限定されるものではない。例えば、人体検出器、眼鏡検出器、服装検出器など、特定物体の検出器の検出能力が低下したことから追尾継続性が低下したと判断する方法など、任意の方法を用いてよい。
追尾継続性値は、「大」「中」「小」のように離散値で表現してもよいし、連続値で表現してもよい。
The method for estimating the tracking continuity value is not limited to these methods. For example, any method may be used such as a method of determining that tracking continuity is reduced because the detection capability of a specific object detector such as a human body detector, a spectacles detector, or a clothes detector is reduced.
The tracking continuity value may be expressed as a discrete value such as “large”, “medium”, or “small”, or may be expressed as a continuous value.
ここで、追尾継続性値を離散値として表現する場合の追尾継続性値の一例を説明する。
まず、適当な閾値a、b(a<b)を用意する。
この場合、追尾目標102とPTZカメラ201との推定距離が「a未満の場合」、「a以上b未満の場合」、「b以上の場合」に、追尾継続性値を、それぞれ、「小」、「中」、「大」とすることができる。
また、PTZカメラ201のチルト角φが0〜90°の連続値をとり得るとする。この場合、PTZカメラ201のチルト角φが「a未満の場合」、「a以上b未満の場合」、「b以上の場合」に、追尾継続性値を、それぞれ、「大」、「中」、「小」とすることができる。ただし、ここでは、チルト角φが0°の場合にPTZカメラ201が水平方向を向き、チルト角φが90°の場合にPTZカメラ201が天頂の方向を向くものとして、チルト角φを定めた場合を例に挙げて示した。
Here, an example of the tracking continuity value when the tracking continuity value is expressed as a discrete value will be described.
First, appropriate threshold values a and b (a <b) are prepared.
In this case, the tracking continuity value is set to “small” when the estimated distance between the tracking
Further, it is assumed that the tilt angle φ of the
次に、追尾継続性値を連続値として表現する場合の追尾継続性値の一例を説明する。例えば、チルト角φを用いて、追尾継続性値を90−φと表すことができる。この場合、チルト角φが0°に近い値をとるほど追尾継続性が高く、チルト角φが90°に近い値をとるほど追尾継続性が小さいことを連続的に表現する。 Next, an example of the tracking continuity value when the tracking continuity value is expressed as a continuous value will be described. For example, the tracking continuity value can be expressed as 90−φ using the tilt angle φ. In this case, it is continuously expressed that the tracking continuity is higher as the tilt angle φ is closer to 0 °, and the tracking continuity is lower as the tilt angle φ is closer to 90 °.
目標部決定部458は、撮像データD、追尾目標102の位置情報、および追尾継続性値を、追尾継続性推定部457から受け取る。そして、目標部決定部458は、追尾継続性値に基づいて、画面から目標部を決定する。
The target unit determination unit 458 receives the imaging data D, the position information of the
まず、PTZカメラ201が追尾目標102よりも高い位置において、鉛直下向きに設置されている場合を想定する。この場合、図2を参照しながら説明した通り、画面に映る追尾目標102内の下の方の位置を目標部として選択することで、PTZカメラ201と、目標部との実世界(実空間)での距離が大きくなる。したがって、追尾目標102を自動追尾するためにPTZカメラ201が必要とするパン角・チルト角の角速度が小さくなる。このため、PTZカメラ201は、追尾目標102の自動追尾に失敗しにくくなる。
First, it is assumed that the
図5は、追尾継続性値が離散値で与えられる場合の目標部の決定方法の一例を説明する図である。具体的に図5は、追尾継続性値と目標部の位置との関係の一例を表形式で示す図である。図6は、図5に示すおける目標部の位置の一例を示す図である。
図5に示す例では、目標部決定部458は、追尾継続性値が「大」である場合には、追尾目標102の近似図形103の上1/3点105を目標部として決定する(図6を参照)。また、追尾継続性値が「中」である場合には、目標部決定部458は、追尾目標102の近似図形103の中心点104を目標部として決定する(図6を参照)。また、追尾継続性値が「中」である場合には、目標部決定部458は、追尾目標102の近似図形103の下1/4点601を目標部として決定する(図6を参照)。中心点104および上1/3点105は、図2を参照しながら説明した点である。また、下1/4点601は、横方向の位置が、近似図形103の横方向の中央の位置であり、且つ、縦方向の位置が、近似図形103の下端から上の方へ近似図形103の高さの1/4の距離だけ隔てた位置の点である。
FIG. 5 is a diagram for explaining an example of a method for determining a target part when the tracking continuity value is given as a discrete value. Specifically, FIG. 5 is a diagram showing an example of the relationship between the tracking continuity value and the position of the target portion in a table format. FIG. 6 is a diagram showing an example of the position of the target portion shown in FIG.
In the example shown in FIG. 5, when the tracking continuity value is “large”, the target part determining unit 458 determines the upper
前述したように、後段の映像処理機能として、顔認証機能や、眼鏡判別機能を実行する場合には、顔領域(追尾目標102(近似図形103)内の顔の位置)を目標部として決定することが好ましい。また、服装判別機能を実行する場合には、胴体領域(特に上着部分)を目標部として決定することが望ましい。図5に示すように、追尾継続性値が大きいほど(追尾目標102の自動追尾を継続することができる可能性が高いほど)、追尾目標102内の上の方の位置を目標部とすることにより、後段の映像処理機能に適した目標部を決定することができるからである。
As described above, when the face authentication function or the glasses discrimination function is executed as the subsequent video processing function, the face region (the position of the face in the tracking target 102 (approximate figure 103)) is determined as the target part. It is preferable. In addition, when executing the clothing discrimination function, it is desirable to determine the body region (particularly the outer jacket portion) as the target portion. As shown in FIG. 5, the higher the tracking continuity value (the higher the possibility that automatic tracking of the
追尾継続性値が連続値で与えられる場合、目標部決定部458は、追尾継続性値がどの値の範囲に含まれるかによって目標部の位置を決定することができる。また、目標部決定部458は、追尾継続性値と目標部の位置との関係を記述した関係式に、追尾継続性値を代入して、目標部の位置を決定することができる。例えば、追尾継続性値をtとする(ただし、tは、0〜90の連続値をとり得るものとする)。この場合、目標部決定部458は、追尾目標102の目標部の位置を、追尾目標102の近似図形103の上端から下の方に、近似図形103の高さのL(t)パーセントだけ隔てた位置として決定することができる。ここで、L(t)は以下の(1)式で表現される。
L(t)=A−t×(A−B)/90 ・・・(1)
(1)式において、A、Bは定数である。例えばA=75、B=33とすると、追尾継続性値が0の場合には、下1/4点601を、追尾継続性値が90の場合には、上1/3点105を、それぞれ目標部として決定することに相当する。追尾継続性値が連続的に変化するのに伴い、目標部の位置も連続的に変化する。
When the tracking continuity value is given as a continuous value, the target part determining unit 458 can determine the position of the target part depending on the range of the tracking continuity value. Further, the target part determination unit 458 can determine the position of the target part by substituting the tracking continuity value into a relational expression describing the relation between the tracking continuity value and the position of the target part. For example, the tracking continuity value is t (where t can be a continuous value from 0 to 90). In this case, the target part determination unit 458 separates the position of the target part of the
L (t) = A−t × (A−B) / 90 (1)
In the formula (1), A and B are constants. For example, if A = 75 and B = 33, if the tracking continuity value is 0, the lower 1/4
以上、PTZカメラ201が追尾目標102よりも高い位置において、鉛直下向きに設置されている場合には、追尾継続性値が小さいほど、画面上において下の方に位置する位置を目標部として決定する。このようにすることで、目標部と、PTZカメラ201との実世界(実空間)での距離が大きくなり、追尾目標102を自動追尾するためにPTZカメラ201が必要とするパン角・チルト角の角速度を大きくすることができる。したがって、追尾目標102の自動追尾に失敗しにくくすることができる。
As described above, when the
目標部の決め方は、PTZカメラ201の設置位置により異なる。例えば、PTZカメラ201が地面に近い位置に設置され、且つ、追尾目標102を見上げるように設置されているとする。この場合は、追尾継続性値が小さいほど、画面上において上の方の位置を目標部として決定することで、PTZカメラ201が自動追尾に失敗しにくいようにすることができる。
The method for determining the target portion differs depending on the installation position of the
制御命令生成部459は、撮像データDおよび目標部を、目標部決定部458から受け取る。そして、制御命令生成部459は、画面の中央に目標部が表示されるようにするために必要なパン・チルトの移動量を計算する。そして、制御命令生成部459は、雲台に対する制御命令Cを生成して撮像部400に送信する。この制御命令Cには、前記計算したパン・チルトの移動量が含まれる。尚、前記計算の手法として、任意の既知の手法を用いることが可能である。計算方法の一例として特許文献3に記載の手法を利用することが可能である。
The control
制御命令生成部459は、さらに追尾目標102の画面上の大きさが一定になるように必要なズーム量を、制御命令Cに含めてもよい。さらに、制御命令生成部459は、パン、チルト、ズームの変化速度を制御命令に含めてもよい。パン、チルト、ズームの変化速度は、例えば、追尾目標102の画面内での移動速度に基づいて決定される。
The control
尚、本実施形態において、図4に示す構成を実現するためのハードウェア構成は、特定のハードウェア構成に限定されるものではない。例えば、撮像部400および制御部450を分離した構成とすることもできる。
また、制御部450内の各部等は、ハードウェアで実装されてもよいし、制御部450内のメモリ等に記憶されたプログラムを制御部450が実行することによって実現されるソフトウェアで実装されてもよい。
In the present embodiment, the hardware configuration for realizing the configuration shown in FIG. 4 is not limited to a specific hardware configuration. For example, the imaging unit 400 and the
Each unit in the
図7は、追尾システムによる自動追尾処理(物体追尾を自動的に行う処理)の一例を説明するフローチャートである。自動追尾処理の開始直後、全体制御部455は、自動追尾処理におけるモードを、待機モードに保つ。
ステップS701において、全体制御部455は、自動追尾の開始要求が通信I/F部451を通じて外部から与えられるまで待機する。そして、自動追尾の開始要求が与えられると、ステップS702に進み、全体制御部455は、自動追尾処理にけるモードを、待機モードから自動追尾モードに遷移させる。
FIG. 7 is a flowchart for explaining an example of automatic tracking processing (processing for automatically performing object tracking) by the tracking system. Immediately after the start of the automatic tracking process, the
In step S701, the
次に、ステップS703において、全体制御部455は、追尾目標決定部456に問い合わせを行い、追尾目標102の決定を依頼する。ユーザが入力装置を用いて明示的に選択した物体を最初の追尾目標102とする場合などのように、外部からの情報を必要とする場合には、全体制御部455は、その情報も追尾目標決定部456に伝える。追尾目標決定部456は、この問い合わせに基づき、追尾目標102を決定する。
Next, in step S703, the
次に、ステップS704において、全体制御部455は、追尾目標決定部456に問い合わせを行い、追尾目標102の画面内の位置の決定を依頼する。追尾目標決定部456は、この問い合わせに基づき、追尾目標102の画面内の位置を決定する。
次に、ステップS705において、追尾目標決定部456は、追尾目標102が画面内において見つからなかったか否かを判定する。この判定の結果、追尾目標102が画面内において見つかった場合には、ステップS706に進む。一方、追尾目標102が画面内において見つからなかった場合には、後述するステップS711に進む。
Next, in step S704, the
Next, in step S705, the tracking
ステップS706に進むと、追尾継続性推定部457は、追尾継続性値を導出する。
次に、ステップS707において、目標部決定部458は、目標部を決定する。
次に、ステップS708において、制御命令生成部459は、雲台に対する制御命令Cを生成する。
In step S706, the tracking
Next, in step S707, the target part determination unit 458 determines a target part.
Next, in step S708, the control
次に、ステップS709において、撮像部400は、制御命令Cに基づき雲台を動作させ、PTZカメラ201の姿勢(撮像方向)を変更する。
次に、ステップS710において、全体制御部455は、自動追尾の終了要求が通信I/F部451を通じて外部から与えられたか否かを判定する。この判定の結果、自動追尾の終了要求が与えられていない場合には、ステップS704に戻る。
Next, in step S709, the imaging unit 400 operates the camera platform based on the control command C, and changes the posture (imaging direction) of the
Next, in step S710, the
一方、自動追尾の終了要求が与えられた場合には、ステップ711に進む。
ステップS711に進むと、全体制御部455は、自動追尾モードを終了して、自動追尾処理におけるモードを、自動追尾モードから待機モードに変更する。
On the other hand, if an automatic tracking end request is given, the process proceeds to step 711.
In step S711, the
<第2の実施形態>
次に、第2の実施形態を説明する。前述した第1の実施形態では、撮像部400の設置条件に関する情報が、制御部450に予め設定され、変更されない場合を例に挙げて説明した。これに対し、本実施形態では、ユーザが、表示装置301などを通じて、撮像部400の設置条件に関する情報である設置情報を、PTZカメラ201に教示する場合を例に挙げて説明する。このように本実施形態は、第1の実施形態に対し、ユーザによる指示に基づき、撮像部400の設置条件を判断し、判断した設置条件に基づいて目標部を決定する構成および処理が付加されたものである。したがって、本実施形態の説明において、第1の実施形態と同一の部分についての詳細な説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. In the first embodiment described above, the case where the information regarding the installation conditions of the imaging unit 400 is preset in the
撮像部400の設置条件を示す設置情報は、例えば、以下のようにして制御部450に取り込まれる。まず、表示装置301は、撮像部400の設置条件が、「天井から鉛直下向きに設置」、「壁に設置」、および「足元に設置」のいずれであるかを選択するラジオボタンなどのGUI(グラフィックユーザインタフェース)を表示する。ユーザが、このGUIを用いて、撮像部400の設置条件を選択すると、表示装置301は、選択された撮像部400の設置条件を示す設置情報をネットワーク303経由で制御部450に送信する。
The installation information indicating the installation conditions of the imaging unit 400 is taken into the
目標部決定部458は、通信I/F部451および全体制御部455を介して、前記設置情報を受け取る。目標部決定部458は、受け取った設置情報に応じて、適切な目標部を決定する。例えば、撮像部400の設置位置が、天井から鉛直下向きに設置されているという設置情報に基づき、目標部として近似図形103の下部の領域を選択することで、追尾目標102の自動追尾の成功の確率が上がる、と判断する。そして、目標部決定部458は、追尾継続性値を参照して適切に目標部を決定する。
The target unit determination unit 458 receives the installation information via the communication I /
以上のように、前述した実施形態では、追尾目標102の自動追尾の可能性(難易度)を示す追尾継続性値と目標部との関係を示す情報を記憶しておく。そして、追尾継続性値を取得すると、当該追尾継続性値に関連する目標部が画面の中央に表示されるように、パン・チルトの移動量を計算し、計算した移動量だけ、PTZカメラ201の雲台を動かして、撮像部400の撮像方向を変更する。このとき、追尾継続性値が、追尾目標102の自動追尾の可能性が低いことを示す値であるほど、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定する。例えば、撮像部400が追尾目標102よりも高い位置に鉛直下向きに設置されている場合には、追尾継続性値が追尾目標102の自動追尾の可能性が低いことを示す値であるほど、追尾目標102内の下の方の位置を目標部として決定する。
したがって、追尾目標102の自動追尾の失敗の確率が高い状況であっても、画面内における目標部の位置を固定する場合よりも、追尾目標102の自動追尾が失敗する可能性を低減することができる。
As described above, in the above-described embodiment, information indicating the relationship between the tracking continuity value indicating the possibility (difficulty) of automatic tracking of the
Therefore, even if the probability of failure of automatic tracking of the
また、前述した実施形態では、追尾継続性値が、追尾目標102の自動追尾の可能性が低いことを示す値であるほど、後段の映像処理機能に適した位置を目標部にする。例えば、撮像部400が追尾目標102よりも高い位置に鉛直下向きに設置されている場合には、追尾継続性値が、追尾目標102の自動追尾の可能性が高いことを示す値であるほど、追尾目標102内の上の方の位置を目標部として決定する。したがって、追尾目標102の自動追尾の失敗の確率が低い状況においては、追尾目標102が後段の処理にとって好適な位置に映るようにすることができる。
In the above-described embodiment, the position suitable for the video processing function at the subsequent stage is set as the target portion as the tracking continuity value is a value indicating that the
前述した実施形態では、追尾目標102に対する自動追尾の継続の難易度を評価するための指標を取得(検出)し、取得(検出)した情報から追尾継続性値を導出し、当該追尾継続性値に対応する目標部を決定する場合を例に挙げて説明した。前述したように、追尾目標102に対する自動追尾の継続の難易度を評価するための指標は、例えば、追尾目標102の画面上の大きさ、追尾目標102とPTZカメラ201との間の距離、PTZカメラ201のチルト角等である。
In the embodiment described above, an index for evaluating the degree of difficulty in continuing automatic tracking with respect to the
しかしながら、必ずしも追尾継続性値を(明示的に)導出する必要はない。すなわち、追尾目標102に対する自動追尾の継続の難易度を評価するための指標を取得(検出)すると、当該取得(検出)した情報に対応する目標部の位置を(追尾継続性値を介さずに)決定してもよい。
However, it is not always necessary to derive (explicitly) a tracking continuity value. That is, when an index for evaluating the degree of difficulty in continuing the automatic tracking with respect to the
尚、図5を参照しながら説明したように、前記取得(検出)した情報により示される値が所定の範囲にある場合には、同一の目標部が決定されるようにすることができる。したがって、前記取得(検出)した情報により示される値が変わった場合に、目標部の位置を必ず変えなければならないというわけではない。即ち、前記取得(検出)した情報が、追尾目標102に対する自動追尾の継続の難易度が相対的に低いことを示す場合よりも高いことを示す場合の方が、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定し得るようにしていればよい。より具体的に説明すると、前者の場合と後者の場合とで、目標部の位置を同じにするか、または、後者の場合の方が前者の場合よりも、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定する。ただし、後者の場合の方が、前者の場合よりも、追尾目標102の自動追尾の失敗が起こりにくくなる位置を目標部として決定することがあるようにする。
一方、前記取得(検出)した情報により示される値が変わった場合に、目標部の位置を必ず変えるようにしてもよい。
Note that, as described with reference to FIG. 5, when the value indicated by the acquired (detected) information is within a predetermined range, the same target portion can be determined. Therefore, when the value indicated by the acquired (detected) information changes, the position of the target portion does not necessarily have to be changed. That is, when the acquired (detected) information indicates that the degree of difficulty in continuing the automatic tracking with respect to the
On the other hand, when the value indicated by the acquired (detected) information changes, the position of the target portion may be changed.
<その他の実施例>
尚、本発明は、例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other examples>
The present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.
また、本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。 The present invention can also be realized by executing the following processing. That is, first, software (computer program) for realizing the functions of the above embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the computer program.
また、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 In addition, the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
201:PTZカメラ、400:撮像部、450:制御部 201: PTZ camera, 400: imaging unit, 450: control unit
Claims (15)
前記抽出手段により抽出された前記移動物体に対する自動追尾の継続の難易度を評価するための指標を取得する取得手段と、
前記取得手段により取得された前記指標に基づいて、前記画像における目標部を決定する決定手段と、
前記決定手段により決定された目標部に基づいて、前記撮像手段による前記撮像方向の変更を指示する指示手段と、を有し、
前記決定手段は、前記指標により評価される前記難易度が相対的に高い場合の方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする物体追尾装置。 An extraction means for extracting a moving object automatically tracked by the imaging means from an image taken by the imaging means capable of automatically changing the imaging direction;
Obtaining means for obtaining an index for evaluating a difficulty level of continuation of automatic tracking for the moving object extracted by the extracting means;
Determining means for determining a target portion in the image based on the index acquired by the acquiring means;
Instruction means for instructing change of the imaging direction by the imaging means based on the target portion determined by the determining means;
The determination unit is more likely to fail in automatic tracking of the moving object when the difficulty level evaluated by the index is relatively higher than when the difficulty level evaluated by the index is relatively low. An object tracking device characterized in that a position where it is difficult to occur can be determined as the target portion.
前記決定手段は、前記撮像手段と前記移動物体との間の距離が、相対的に小さい場合の方が、前記撮像手段と前記移動物体との間の距離が、相対的に大きい場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。 The index is a distance between the imaging means and the moving object,
The determination unit is configured such that when the distance between the imaging unit and the moving object is relatively small, compared to when the distance between the imaging unit and the moving object is relatively large, The object tracking device according to claim 1, wherein a position where the failure of the automatic tracking of the moving object is less likely to occur can be determined as the target unit.
前記決定手段は、前記画像における前記移動物体の大きさが、相対的に大きい場合の方が、前記画像における前記移動物体の大きさが、相対的に小さい場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。 The indicator is the size of the moving object in the image,
The determination means performs automatic tracking of the moving object when the size of the moving object in the image is relatively larger than when the size of the moving object in the image is relatively small. The object tracking device according to claim 1, wherein a position where the failure is less likely to occur is determined as the target unit.
前記決定手段は、前記撮像手段のチルト角が、相対的に天頂に近い角度である場合の方が、前記撮像手段のチルト角が、相対的に天頂から遠い角度である場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。 The index is a tilt angle of the imaging means,
The determination means moves the movement when the tilt angle of the imaging means is relatively closer to the zenith than when the tilt angle of the imaging means is relatively far from the zenith. The object tracking device according to claim 1, wherein a position at which failure of automatic tracking of an object hardly occurs can be determined as the target unit.
前記決定手段は、前記撮像方向を変更するために前記撮像手段が単位時間に動く角度が、相対的に大きい角度である場合の方が、前記撮像方向を変更するために前記撮像手段が単位時間に動く角度が、相対的に小さい角度である場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする請求項1または2に記載の物体追尾装置。 The index is an angle at which the imaging means moves per unit time to change the imaging direction,
In the case where the angle at which the imaging unit moves in unit time to change the imaging direction is a relatively large angle, the determination unit is configured to change the imaging direction in unit time. The position where the failure of automatic tracking of the moving object is less likely to occur than when the moving angle is a relatively small angle can be determined as the target portion. 2. The object tracking device according to 2.
前記決定手段は、前記指標により評価される前記難易度が相対的に高い場合の方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記画像における下の位置を前記目標部として決定し得るようにしたことを特徴とする請求項1〜7の何れか1項に記載の物体追尾装置。 The imaging means is installed vertically downward,
The determining means determines the lower position in the image when the difficulty level evaluated by the index is relatively higher than when the difficulty level evaluated by the index is relatively low. The object tracking device according to claim 1, wherein the object tracking device can be determined as a target portion.
前記決定手段は、前記値と前記目標部の位置との関係と、前記導出手段により導出された前記値とに基づいて、前記目標部の位置を決定し、
前記関係は、前記値が、前記難易度が高いことを示す値であるほど、前記目標部の位置が、前記移動物体の自動追尾の失敗が起こりにくくなる位置になる関係であることを特徴とする請求項1〜10の何れか1項に記載の物体追尾装置。 Based on the index, further comprising a derivation means for deriving a value indicating a difficulty level of continuation of automatic tracking for the moving object;
The determining means determines the position of the target portion based on the relationship between the value and the position of the target portion and the value derived by the derivation means,
The relationship is a relationship in which, as the value is a value indicating that the degree of difficulty is high, the position of the target unit becomes a position where the failure of automatic tracking of the moving object is less likely to occur. The object tracking device according to any one of claims 1 to 10.
前記抽出工程により抽出された前記移動物体に対する自動追尾の継続の難易度を評価するための指標を取得する取得工程と、
前記取得工程により取得された前記指標に基づいて、前記画像における目標部を決定する決定工程と、
前記決定工程により決定された目標部に基づいて、前記撮像手段による前記撮像方向の変更を指示する指示工程と、を有し、
前記決定工程は、前記指標により評価される前記難易度が相対的に高い方が、前記指標により評価される前記難易度が相対的に低い場合よりも、前記移動物体の自動追尾の失敗が起こりにくくなる位置を、前記目標部として決定し得るようにしたことを特徴とする物体追尾方法。 An extraction step of extracting a moving object to be automatically tracked by the imaging unit from an image captured by the imaging unit capable of automatically changing the imaging direction;
An acquisition step of acquiring an index for evaluating the difficulty level of continuation of automatic tracking for the moving object extracted by the extraction step;
A determination step of determining a target portion in the image based on the index acquired by the acquisition step;
An instruction step for instructing the change of the imaging direction by the imaging means based on the target portion determined by the determination step;
In the determining step, when the degree of difficulty evaluated by the index is relatively high, a failure in automatic tracking of the moving object occurs than when the degree of difficulty evaluated by the index is relatively low. An object tracking method characterized in that a position to be difficult can be determined as the target portion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014205124A JP2016076791A (en) | 2014-10-03 | 2014-10-03 | Object tracking device, object tracking method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014205124A JP2016076791A (en) | 2014-10-03 | 2014-10-03 | Object tracking device, object tracking method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016076791A true JP2016076791A (en) | 2016-05-12 |
Family
ID=55951773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014205124A Pending JP2016076791A (en) | 2014-10-03 | 2014-10-03 | Object tracking device, object tracking method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016076791A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212581A (en) * | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | Tracker, tracking method and program |
WO2019129255A1 (en) * | 2017-12-29 | 2019-07-04 | 华为技术有限公司 | Target tracking method and device |
JP2020053028A (en) * | 2018-08-10 | 2020-04-02 | オーロラ フライト サイエンシズ コーポレーション | Object-tracking system |
CN113301256A (en) * | 2021-05-23 | 2021-08-24 | 成都申亚科技有限公司 | Camera module with low power consumption and multi-target continuous automatic monitoring function and camera shooting method thereof |
KR102513372B1 (en) * | 2023-01-12 | 2023-03-23 | 에코아이넷 주식회사 | Hybrid type object tracking system based on sound and image and control method using the same |
-
2014
- 2014-10-03 JP JP2014205124A patent/JP2016076791A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017212581A (en) * | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | Tracker, tracking method and program |
KR20170133269A (en) * | 2016-05-25 | 2017-12-05 | 캐논 가부시끼가이샤 | Video processing apparatus, video processing method, and program |
KR102213328B1 (en) * | 2016-05-25 | 2021-02-08 | 캐논 가부시끼가이샤 | Video processing apparatus, video processing method, and program |
WO2019129255A1 (en) * | 2017-12-29 | 2019-07-04 | 华为技术有限公司 | Target tracking method and device |
US11276185B2 (en) | 2017-12-29 | 2022-03-15 | Huawei Technologies Co., Ltd. | Target tracking method and apparatus |
JP2020053028A (en) * | 2018-08-10 | 2020-04-02 | オーロラ フライト サイエンシズ コーポレーション | Object-tracking system |
CN113301256A (en) * | 2021-05-23 | 2021-08-24 | 成都申亚科技有限公司 | Camera module with low power consumption and multi-target continuous automatic monitoring function and camera shooting method thereof |
CN113301256B (en) * | 2021-05-23 | 2023-12-22 | 成都申亚科技有限公司 | Low-power-consumption multi-target continuous automatic monitoring camera module and camera method thereof |
KR102513372B1 (en) * | 2023-01-12 | 2023-03-23 | 에코아이넷 주식회사 | Hybrid type object tracking system based on sound and image and control method using the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6696615B2 (en) | Monitoring system, monitoring method, and recording medium storing monitoring program | |
CN107438173B (en) | Video processing apparatus, video processing method, and storage medium | |
JP6525545B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM | |
JP4241742B2 (en) | Automatic tracking device and automatic tracking method | |
KR101687530B1 (en) | Control method in image capture system, control apparatus and a computer-readable storage medium | |
KR102349242B1 (en) | Tracker assisted image capture | |
WO2018228410A1 (en) | Target object capturing method and device, and video monitoring device | |
JP2016076791A (en) | Object tracking device, object tracking method, and program | |
JP6574645B2 (en) | Control device for controlling imaging apparatus, control method for imaging apparatus, and program | |
KR102282470B1 (en) | Camera apparatus and method of object tracking using the same | |
CN107079098B (en) | Image playing method and device based on PTZ camera | |
JP4578864B2 (en) | Automatic tracking device and automatic tracking method | |
JP5693147B2 (en) | Photographic interference detection method, interference detection device, and surveillance camera system | |
JP2006259847A (en) | Automatic tracking device and automatic tracking method | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
KR102107137B1 (en) | Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera | |
JP2001320699A (en) | Intruded object monitoring method and intruded object monitoring system | |
JP5033412B2 (en) | Monitoring system, monitoring method, and program | |
JP6483326B2 (en) | Monitoring system and terminal device | |
KR102576795B1 (en) | Method for obtaining frontal image based on pose estimation and apparatus using the same | |
EP4187912A1 (en) | Camera control apparatus, camera control method, and non-transitory storage medium | |
KR20150050224A (en) | Apparatus and methdo for abnormal wandering | |
JP2023180468A (en) | Image processing device and method, imaging system, program and storage medium | |
JP2020027463A (en) | Image processing device | |
JP2019179952A (en) | Image photographing apparatus, image transmission method, and image analysis system |