JP2017204795A - Tracking apparatus - Google Patents

Tracking apparatus Download PDF

Info

Publication number
JP2017204795A
JP2017204795A JP2016096585A JP2016096585A JP2017204795A JP 2017204795 A JP2017204795 A JP 2017204795A JP 2016096585 A JP2016096585 A JP 2016096585A JP 2016096585 A JP2016096585 A JP 2016096585A JP 2017204795 A JP2017204795 A JP 2017204795A
Authority
JP
Japan
Prior art keywords
subject
camera
tracking
size
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016096585A
Other languages
Japanese (ja)
Inventor
拓也 岸
Takuya Kishi
拓也 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016096585A priority Critical patent/JP2017204795A/en
Publication of JP2017204795A publication Critical patent/JP2017204795A/en
Pending legal-status Critical Current

Links

Landscapes

  • Lens Barrels (AREA)
  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an automatic-tracking imaging system which acquires an excellent image at the start of tracking.SOLUTION: A tracking processing apparatus 40 recognizes a subject to be tracked, on the basis of an image output from a first camera 20a which monitors a preset area, calculates a speed of the recognized subject, estimates a position to which the subject is to move, from the calculated speed, and controls an imaging optical axis of a second camera 20b, which can vary imaging optical axis or imaging angle-of-view, to be turned to the subject, on the basis of the estimated subject position. The tracking processing apparatus recognizes the subject to be tracked, on the basis of an image output from the second camera, and controls the imaging optical axis or the imaging angle-of-view with a universal head 10 so that the recognized subject may be captured at the center of an imaging screen of the second camera. After the second camera captures the subject, the imaging optical axis or the imaging angle-of-view of the second camera is controlled to track the subject for imaging.SELECTED DRAWING: Figure 1

Description

本発明は、追尾対象物を自動で追尾する自動追尾装置に関し、特に複数台のカメラを連携させて追尾対象物を追尾する自動追尾雲台カメラシステムに関する。   The present invention relates to an automatic tracking device that automatically tracks a tracking object, and more particularly to an automatic tracking camera system that tracks a tracking object by linking a plurality of cameras.

近年、雲台カメラをズーム・パン・チルト制御することで、被写体を自動で追尾する自動追尾雲台カメラシステムが提案されている。   In recent years, there has been proposed an auto-tracking pan / tilt head camera system that automatically tracks a subject by zoom / pan / tilt control of the pan / tilt head camera.

上記の分野の従来技術として、特許文献1には、オペレータが操作器から画面上に追尾被写体の目標位置を設定し、自動追尾時にはその位置に被写体を画面内において相対的に停止するように雲台を制御することが開示されている。   As a prior art in the above-mentioned field, Patent Document 1 discloses a cloud in which an operator sets a target position of a tracking subject on the screen from an operating unit, and the subject is relatively stopped in the screen at the position during automatic tracking. Controlling the table is disclosed.

また特許文献2には、広角なレンズを搭載し撮影範囲の広い固定カメラと、固定カメラよりも狭い画角を持ち駆動制御により光軸を傾けることができる望遠カメラを連携させて追尾撮影を行う手法が提案されている。   In Patent Document 2, tracking shooting is performed by linking a fixed camera with a wide-angle lens and a wide shooting range with a telephoto camera that has a narrower angle of view than the fixed camera and can tilt the optical axis by drive control. A method has been proposed.

特開平8−74296号公報JP-A-8-74296 特許第4188394号公報Japanese Patent No. 4188394

固定カメラにより被写体を認識し、認識した被写体の座標情報に基づいて望遠カメラを制御することで、広い探索範囲と被写体の拡大画像の両立が可能となっている。   By recognizing the subject with a fixed camera and controlling the telephoto camera based on the coordinate information of the recognized subject, it is possible to achieve both a wide search range and an enlarged image of the subject.

しかしながら、上述の特許文献1に開示された従来技術では、被写体がカメラの画角内に入っていない場合には、追尾を開始することができないといったことがある。特に、一つの被写体を追尾中に別方向から新たな被写体が現れた場合には、画像認識によって新たな被写体を認識することができないため、追尾を開始することができなかった。   However, in the conventional technique disclosed in Patent Document 1 described above, tracking may not be started when the subject is not within the angle of view of the camera. In particular, when a new subject appears from another direction while tracking one subject, the new subject cannot be recognized by image recognition, and thus tracking cannot be started.

特許文献2に開示された従来技術では、広角固定カメラの画像によって被写体を認識することができるため広い範囲の被写体を探索することができる。   In the prior art disclosed in Patent Document 2, since a subject can be recognized from an image of a wide-angle fixed camera, a wide range of subjects can be searched.

しかし、認識した被写体を望遠カメラの画角内に捕捉する動作を行っている間に被写体が大きく移動すると、捕捉動作に無駄な動きが発生してしまうことがある。さらに捕捉動作中に被写体が広角カメラの画角外に出てしまった場合には、望遠カメラによる追尾撮影を開始することが出来ない可能性もある。   However, if the subject moves greatly while performing the operation of capturing the recognized subject within the angle of view of the telephoto camera, useless movement may occur in the capturing operation. Furthermore, if the subject goes out of the angle of view of the wide-angle camera during the capturing operation, there is a possibility that tracking shooting by the telephoto camera cannot be started.

そこで、本発明は、複数台のカメラを連携させて被写体を追尾する自動追尾雲台カメラシステムにおいて、認識した被写体が雲台カメラで捕捉する動作中に移動してしまう場合においても、無駄な動作なく短時間で追尾を開始することを目的とする。   Therefore, the present invention is a useless operation even when a recognized subject moves during an operation of capturing with a camera platform in an automatic tracking camera platform system that tracks a subject by linking a plurality of cameras. The aim is to start tracking in a short time.

上記の目的を達成するために、本発明に係る自動追尾装置は、
少なくとも一台の、あらかじめ設定された範囲を監視する第1のカメラと、
少なくとも一台の、ズーム・パン・チルトの少なくともいずれか一つを駆動する雲台装置に搭載され、撮影光軸もしくは撮影画角を変化させることができる第2のカメラと、
前記第1、第2のカメラから出力された画像信号から追尾すべき被写体を認識し、前記第2のカメラを動作させ前記被写体を追尾するための制御演算を行う追尾処理装置と、
から構成される自動追尾装置において、
前記追尾処理装置は、
前記第1のカメラから出力された画像に基づいて追尾すべき被写体を認識する第1カメラ被写体認識手段と、
前記第1カメラ被写体認識手段が認識した前記被写体の速度を算出する被写体速度算出手段と、
前記被写体速度算出手段が算出した速度から前記被写体の移動する位置を予測する被写体位置予測手段と、
前記被写体位置予測手段が予測した被写体位置に基づき、前記被写体に前記第2のカメラの撮影光軸を向けるように前記雲台装置を制御する被写体捕捉手段と、
前記第2のカメラから出力された画像に基づいて追尾すべき被写体を認識する第2カメラ被写体認識手段と、
前記第2カメラ被写体認識手段が認識した前記被写体が、前記第2のカメラの撮影画面の中央に捕捉されるように前記雲台装置を駆動制御する第2カメラ追尾制御手段とを有し、
前記第2カメラ被写体認識手段が被写体を認識した後は、前記被写体捕捉手段に代えて前記第2カメラ追尾制御手段により前記雲台装置を制御し前記被写体の追尾撮影を行うことを特徴とする。
In order to achieve the above object, an automatic tracking device according to the present invention includes:
At least one first camera for monitoring a preset range;
A second camera that is mounted on at least one pan / tilt head device that drives at least one of zoom, pan, and tilt, and that can change a photographing optical axis or a photographing angle of view;
A tracking processing device for recognizing a subject to be tracked from image signals output from the first and second cameras and operating the second camera to perform control calculation for tracking the subject;
In an automatic tracking device composed of
The tracking processing device includes:
First camera subject recognition means for recognizing a subject to be tracked based on an image output from the first camera;
Subject speed calculation means for calculating the speed of the subject recognized by the first camera subject recognition means;
Subject position prediction means for predicting the position where the subject moves from the speed calculated by the subject speed calculation means;
Subject capturing means for controlling the camera platform device to direct the photographing optical axis of the second camera toward the subject based on the subject position predicted by the subject position predicting means;
Second camera subject recognition means for recognizing a subject to be tracked based on an image output from the second camera;
Second camera tracking control means for driving and controlling the camera platform so that the subject recognized by the second camera subject recognition means is captured at the center of the shooting screen of the second camera;
After the second camera subject recognizing unit recognizes the subject, the pan head device is controlled by the second camera tracking control unit instead of the subject capturing unit to perform tracking shooting of the subject.

本発明に係る自動追尾カメラの制御装置および自動追尾カメラの制御方法によれば、認識した被写体が雲台カメラで捕捉する動作中に移動してしまう場合においても、無駄な動作なく短時間で追尾を開始することが出来る。   According to the control device for the automatic tracking camera and the control method for the automatic tracking camera according to the present invention, even when the recognized subject moves during the operation of capturing with the camera platform camera, the tracking can be performed in a short time without wasteful operation. Can start.

実施例1における追尾システムの構成図である。1 is a configuration diagram of a tracking system in Embodiment 1. FIG. 実施例1におけるカメラの配置を示した説明図である。FIG. 3 is an explanatory diagram showing the arrangement of cameras in Embodiment 1. 実施例1における処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of processing in the first embodiment. 実施例1の手法の効果を示した説明図である。It is explanatory drawing which showed the effect of the method of Example 1. FIG. 実施例2における追尾システムの構成図である。It is a block diagram of the tracking system in Example 2. 実施例2における処理の流れを示すフローチャートである。10 is a flowchart illustrating a processing flow in the second embodiment. 実施例2の手法の効果を示した説明図である。It is explanatory drawing which showed the effect of the method of Example 2. FIG.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[実施例1]
以下、図1を参照して、本発明の第1の実施例による構成について説明する。
[Example 1]
The configuration according to the first embodiment of the present invention will be described below with reference to FIG.

本実施例の追尾システムは、雲台10、第1のカメラ20a、第2のカメラ20b、第1のレンズ30a、第2のレンズ30bおよび追尾処理装置40から構成される。図2で示されるように、本実施例においては、第1のカメラ20aは固定された広角のカメラを使用し、第2のカメラ20bは雲台10によりパン・チルト・ズーム駆動可能なカメラを使用している。図2の、A、Bはそれぞれ第1のカメラ20a、第2のカメラ20bの画角を示している。2台のカメラはそれぞれ追尾処理装置40と信号線で接続され、画像信号や制御信号を通信している。   The tracking system of the present embodiment includes a pan head 10, a first camera 20a, a second camera 20b, a first lens 30a, a second lens 30b, and a tracking processing device 40. As shown in FIG. 2, in this embodiment, the first camera 20 a uses a fixed wide-angle camera, and the second camera 20 b uses a camera that can be pan / tilt / zoom driven by the camera platform 10. I use it. A and B in FIG. 2 indicate the angles of view of the first camera 20a and the second camera 20b, respectively. Each of the two cameras is connected to the tracking processing device 40 through a signal line, and communicates an image signal and a control signal.

雲台10は雲台CPU11、追尾処理装置間通信部12、パン制御部13a、チルト制御部13b、パンモータ14a、チルトモータ14b、ズーム制御部15a、フォーカス制御部15b、カメラ制御部16から構成される。   The pan head 10 includes a pan head CPU 11, a tracking processing device communication unit 12, a pan control unit 13a, a tilt control unit 13b, a pan motor 14a, a tilt motor 14b, a zoom control unit 15a, a focus control unit 15b, and a camera control unit 16. The

被写体追尾時において、雲台10は、まず追尾処理装置通信部12で追尾処理装置40からの操作信号を受信する。受信した操作信号を雲台CPU11が解釈し、操作信号に適した動作を行う。操作信号がパン・チルトの駆動命令であった場合には、パン・チルト制御部13a・bを制御することによって、パン・チルトモータ14a・bを駆動させる。ズーム・フォーカスの駆動命令であった場合には、ズーム・フォーカス制御部15a・bを制御することによって、レンズ30を駆動させる。各種カメラの制御命令であった場合には、カメラ制御部16を制御し、カメラ20を制御する。   At the time of subject tracking, the camera platform 10 first receives an operation signal from the tracking processing device 40 by the tracking processing device communication unit 12. The pan head CPU 11 interprets the received operation signal and performs an operation suitable for the operation signal. When the operation signal is a pan / tilt drive command, the pan / tilt motors 14a / b are driven by controlling the pan / tilt control units 13a / b. In the case of a zoom / focus drive command, the lens 30 is driven by controlling the zoom / focus control units 15a and 15b. If the control command is for various cameras, the camera control unit 16 is controlled to control the camera 20.

追尾処理装置40は、画像処理部41、画像処理メモリ42、画像処理プロセッサ43、テンプレートメモリ44、追尾処理装置CPU45、操作器間通信部46、雲台間通信部47から構成される。上記の内追尾処理装置CPU45は、第1カメラ被写体認識部45a、第2カメラ被写体認識部45b、被写体速度算出部45c、被写体位置予測部45d、被写体捕捉制御部45e、被写体追尾制御部45fを機能として含み、これら機能を統括制御している。   The tracking processing device 40 includes an image processing unit 41, an image processing memory 42, an image processing processor 43, a template memory 44, a tracking processing device CPU 45, an inter-operator communication unit 46, and a pan-head communication unit 47. The inner tracking processing device CPU 45 functions as a first camera subject recognition unit 45a, a second camera subject recognition unit 45b, a subject speed calculation unit 45c, a subject position prediction unit 45d, a subject capture control unit 45e, and a subject tracking control unit 45f. And control these functions.

追尾処理装置40は、まず第1のカメラ20a、第2のカメラ20bから受信した映像信号を画像処理部41が1フレームごとの画像データに変換し画像処理メモリ42に保存する。画像処理プロセッサ43は、テンプレートメモリ44に保存されている画像を基準画像とし、画像処理メモリ42に保存されている画像に対して輝度パターンによるテンプレートマッチングを行うことで、被写体の有無を判定する。画像処理メモリ42の中の基準画像との類似度が、あらかじめ設定されている被写体認識の閾値THを上回る領域がある場合には、被写体が存在すると判定し、その結果を追尾処理装置CPU45に送る。   In the tracking processing device 40, first, the image processing unit 41 converts the video signal received from the first camera 20 a and the second camera 20 b into image data for each frame and stores it in the image processing memory 42. The image processor 43 uses the image stored in the template memory 44 as a reference image, and performs template matching based on the luminance pattern on the image stored in the image processing memory 42 to determine the presence or absence of the subject. If there is a region where the similarity with the reference image in the image processing memory 42 exceeds a preset subject recognition threshold value TH, it is determined that a subject exists and the result is sent to the tracking processing unit CPU 45. .

一方、画像処理プロセッサ43は、閾値THを超える領域が存在しない場合には、被写体が存在しないものとし、その結果を追尾処理装置CPU45に送る。追尾処理装置CPU45内の第1カメラ被写体認識部45a、第2カメラ被写体認識部45bは、それぞれ対応したカメラの画面内に被写体が存在する場合、撮影する画面内において長方形の形状として認識された被写体領域の4頂点の座標を算出する。第1のカメラ20aにおいて被写体が観測された場合は、抽出した被写体情報を被写体速度算出部45c、被写体位置予測部45dに送る。そして、第2のカメラ20bにおいて被写体が観測された場合は、抽出した被写体情報を被写体追尾制御部45fに送る。   On the other hand, if there is no region exceeding the threshold TH, the image processing processor 43 assumes that no subject exists and sends the result to the tracking processing device CPU 45. The first camera subject recognition unit 45a and the second camera subject recognition unit 45b in the tracking processing device CPU 45 recognize the subject recognized as a rectangular shape in the screen to be photographed when the subject exists in the screen of the corresponding camera. Calculate the coordinates of the four vertices of the region. When the subject is observed in the first camera 20a, the extracted subject information is sent to the subject speed calculation unit 45c and the subject position prediction unit 45d. When a subject is observed by the second camera 20b, the extracted subject information is sent to the subject tracking control unit 45f.

また、追尾処理装置CPU45は、雲台間通信部47と追尾処理装置間通信部12を通じて、雲台CPU11から現在の雲台位置情報を取得することが出来る。この雲台位置情報は、雲台CPU11がパン制御部13a、チルト制御部13b、ズーム制御部15bからフィードバックを受け、情報を保持しているものである。第1のカメラ20aで被写体を観測した場合、被写体速度算出部45cは、雲台位置情報と前記画面内における被写体の移動量から、被写体の速度を算出する。被写体位置予測部45dは、算出した被写体速度と雲台位置情報、第1カメラ被写体認識部45aが抽出した被写体情報をもとに被写体の移動予測をたてる。   Further, the tracking processing device CPU 45 can acquire the current pan head position information from the pan head CPU 11 through the pan head communication unit 47 and the tracking processing unit communication unit 12. The pan / tilt head position information is stored by the pan / tilt head CPU 11 receiving feedback from the pan control unit 13a, the tilt control unit 13b, and the zoom control unit 15b. When the subject is observed with the first camera 20a, the subject speed calculation unit 45c calculates the speed of the subject from the pan head position information and the amount of movement of the subject within the screen. The subject position prediction unit 45d performs subject movement prediction based on the calculated subject speed and pan head position information, and subject information extracted by the first camera subject recognition unit 45a.

そして、被写体捕捉制御部45eは、立てられた被写体の移動予測から被写体を第2のカメラ20bの画面内に捕捉するために必要な駆動速度を算出し、雲台CPU11に制御命令を送る。第2のカメラ20bで被写体を観測した場合は、第2カメラ被写体認識部45bが抽出した被写体情報をもとに、被写体追尾制御部45fが被写体を画面中央に留めるように追尾するための雲台の駆動速度を算出し、雲台CPU11に対して制御命令を送る。   Then, the subject capturing control unit 45e calculates a driving speed necessary to capture the subject within the screen of the second camera 20b from the standing subject movement prediction, and sends a control command to the pan head CPU 11. When the subject is observed with the second camera 20b, the subject tracking control unit 45f uses the subject information extracted by the second camera subject recognition unit 45b to track the subject so as to keep the subject at the center of the screen. And a control command is sent to the pan / tilt head CPU 11.

以下に、本実施例における追尾処理装置CPU45の基本処理の流れについて、図3のフローチャートをもとに説明する。   The basic processing flow of the tracking processing device CPU 45 in this embodiment will be described below with reference to the flowchart of FIG.

追尾処理が開始されると、まず、第1カメラ被写体認識部45aが前述の画像処理プロセッサ43から被写体情報を受信し、画面内に被写体が存在するかを判定する(S101)。被写体が存在しない場合には、検出処理を繰り返す。存在する場合にはその位置を算出すする(S102)。次に、被写体速度算出部45cが被写体の移動速度を算出し(S103)、その情報をもとに被写体位置予測部45dが被写体の移動予測をたてる(S104)。そして、被写体捕捉制御部45eは、立てられた被写体の移動予測をもとに最短時間で第2のカメラ20bの画面に被写体を捕捉するための雲台10の駆動速度を算出し、捕捉制御を行う(S105)。   When the tracking process is started, first, the first camera subject recognition unit 45a receives subject information from the image processor 43 described above, and determines whether or not a subject exists in the screen (S101). If there is no subject, the detection process is repeated. If it exists, the position is calculated (S102). Next, the subject speed calculation unit 45c calculates the movement speed of the subject (S103), and the subject position prediction unit 45d predicts the movement of the subject based on the information (S104). Then, the subject capture control unit 45e calculates the driving speed of the camera platform 10 for capturing the subject on the screen of the second camera 20b in the shortest time based on the predicted motion of the subject, and performs capture control. It performs (S105).

第2カメラ被写体認識部45bは、第2のカメラ20bの画面に被写体を捕捉できたかを判定し(S106)、捕捉できていない場合はS102〜S105の処理を繰り返す。捕捉できた場合には、被写体捕捉制御部45eは捕捉制御をし、代わりに、第2カメラ被写体認識部45bが被写体情報を取得し(S107)、被写体追尾制御部45fが被写体を第2のカメラ20bの画面中央に留めるように追尾制御を行う(S108)。最後に、追尾を終了するかを判定し(S109)、追尾を終了しない場合は、S107〜S109を繰り返す。追尾を終了する場合にはS101の処理に戻り被写体を再探索する。   The second camera subject recognition unit 45b determines whether the subject has been captured on the screen of the second camera 20b (S106), and if not captured, repeats the processing of S102 to S105. If capture is successful, the subject capture control unit 45e performs capture control. Instead, the second camera subject recognition unit 45b acquires subject information (S107), and the subject tracking control unit 45f captures the subject to the second camera. Tracking control is performed so as to remain at the center of the screen 20b (S108). Finally, it is determined whether or not the tracking is to be ended (S109). If the tracking is not to be ended, S107 to S109 are repeated. When the tracking is finished, the process returns to S101 to search again for the subject.

以上のように、本実施例においては、第1のカメラ20aの画像から被写体の移動予測をたて、その予測をもとに雲台を制御し、最短の時間で第2のカメラの画面内に被写体を捕捉するように制御する。図4は、本実施例を用いた場合の効果を示している。まず、被写体を第1のカメラ20aで認識したのち、第2のカメラ20bで被写体を撮影するべく捕捉制御を行う。図4aで示す従来技術では、常に被写体の現在位置に向けて捕捉制御を行うため、捕捉制御動作中に被写体が移動してしまうと最短距離で被写体を捉える事が出来なくなってしまう。   As described above, in the present embodiment, the movement of the subject is predicted from the image of the first camera 20a, the camera platform is controlled based on the prediction, and the second camera screen is displayed in the shortest time. Control to capture the subject. FIG. 4 shows the effect when this embodiment is used. First, after the subject is recognized by the first camera 20a, capture control is performed so that the subject is photographed by the second camera 20b. In the prior art shown in FIG. 4a, since capture control is always performed toward the current position of the subject, if the subject moves during the capture control operation, the subject cannot be captured at the shortest distance.

また、捕捉が完了する前に被写体が第1のカメラ20aの画面外に出てしまうと、被写体の現在位置が取得できなくなってしまうため、捕捉制御を行うことができなくなってしまう。しかし、本実施例を適用した場合には、図4bのように被写体の移動予測を用いて最短距離で雲台10を駆動制御するため、無駄な動作なく第2のカメラ20bで被写体を捕捉することができる。また、捕捉完了前に被写体が第1のカメラ20aの画面外に出てしまった場合にも、保持している被写体の移動予測を用いて雲台10を制御することで、被写体捕捉制御を継続することができる。   Further, if the subject goes out of the screen of the first camera 20a before the capture is completed, the current position of the subject cannot be acquired, and thus capture control cannot be performed. However, when this embodiment is applied, since the pan head 10 is driven and controlled at the shortest distance using the movement prediction of the subject as shown in FIG. 4B, the subject is captured by the second camera 20b without useless operation. be able to. In addition, even when the subject goes out of the screen of the first camera 20a before the capture is completed, the subject capture control is continued by controlling the camera platform 10 using the movement prediction of the held subject. can do.

本実施例においては、第1のカメラ20aを広角で固定されたカメラとしているが、雲台のような駆動装置を用いて駆動させてもよい。また用いるカメラを2台としているが、第1、第2のカメラの役割に相当するカメラを複数台ずつ用いてもよい。被写体を認識する手法を画像認識としているが、他の認識手段、例えばレーダーを利用した被写体認識等を用いてもよい。また、被写体を認識する領域を長方形としたが、この形状は特に限定されるものではない。   In the present embodiment, the first camera 20a is a camera fixed at a wide angle. However, the first camera 20a may be driven using a driving device such as a pan head. Although two cameras are used, a plurality of cameras corresponding to the roles of the first and second cameras may be used. Although the method for recognizing the subject is image recognition, other recognition means such as subject recognition using a radar may be used. Moreover, although the area | region which recognizes a to-be-photographed object was made into the rectangle, this shape is not specifically limited.

さらに、被写体の速度算出を被写体の画面上における大きさと雲台位置情報を用いて行うとしたが、別の手法によって算出してもよい。また、追尾処理装置40において、画像処理プロセッサ43、雲台間通信部46と追尾処理装置CPU45を別のものとしているが、ひとつのCPUで処理してもよいし、テンプレートメモリ44については、CPUの内蔵メモリを用いてもよい。また、追尾処理装置40の機能については、雲台10内部に組み込んでもよいし、雲台CPU11に統合してもよい。   Furthermore, although the speed of the subject is calculated using the size of the subject on the screen and the pan head position information, it may be calculated by another method. In the tracking processing device 40, the image processing processor 43, the pan / tilt head communication unit 46, and the tracking processing device CPU 45 are separate from each other. However, the processing may be performed by a single CPU. Alternatively, a built-in memory may be used. Further, the function of the tracking processing device 40 may be incorporated in the pan head 10 or may be integrated into the pan head CPU 11.

[実施例2]
以下、本発明の第2の実施例について説明する。
[Example 2]
The second embodiment of the present invention will be described below.

本実施例におけるシステムの構成を図5に示す。実施例1と比較して追尾処理装置CPU45内の機能構成に被写体サイズ予測部45fが追加されている。追尾の基本処理のフローは図6に示す。   FIG. 5 shows the system configuration in this embodiment. Compared to the first embodiment, a subject size prediction unit 45f is added to the functional configuration in the tracking processing device CPU45. The flow of the basic tracking process is shown in FIG.

まず、実施例1と同様に、第1カメラ被写体認識部45aが被写体の存在有無を判定し(S201)、被写体が存在しない場合には検出処理を繰り返す。存在する場合にはその位置とサイズを算出する(S202)。次に、被写体速度算出部45cが被写体の移動速度を算出し(S203)、被写体サイズ変化速度算出部45dが被写体の画面上におけるサイズ変化速度を算出する(S204)。そして被写体の移動速度をもとに被写体位置予測部45eが被写体の移動予測をたて(S205)、被写体サイズ変化速度をもとに被写体サイズ予測部45fが第2のカメラ20bで撮影した場合の被写体のサイズを予測する(S206)。   First, as in the first embodiment, the first camera subject recognition unit 45a determines the presence or absence of a subject (S201), and repeats the detection process when the subject does not exist. If it exists, its position and size are calculated (S202). Next, the subject speed calculation unit 45c calculates the moving speed of the subject (S203), and the subject size change speed calculation unit 45d calculates the size change speed of the subject on the screen (S204). Then, the subject position predicting unit 45e predicts the subject movement based on the moving speed of the subject (S205), and the subject size predicting unit 45f captures an image with the second camera 20b based on the subject size change speed. The size of the subject is predicted (S206).

そして、被写体捕捉制御部45gは立てられた被写体の移動予測とサイズ予測をもとに、最短時間で被写体を捉え、かつ捉えた時点から最適なサイズで被写体を追尾撮影することができるように雲台10の駆動速度を算出し、捕捉制御を行う(S207)。以降の処理S208〜S211については、実施例1におけるS206〜S209と同様である。   Then, the subject capture control unit 45g captures the subject in the shortest time based on the set motion prediction and size prediction of the subject, and allows the subject to be tracked and captured with the optimum size from the point of capture. The drive speed of the table 10 is calculated and capture control is performed (S207). The subsequent processes S208 to S211 are the same as S206 to S209 in the first embodiment.

以上のように、本実施例においては、第1のカメラ20aの画像から被写体の移動予測に加えて画面上における被写体のサイズ予測をたて被写体捕捉制御に利用する。このことによって第2のカメラで捕捉した時点から被写体を最適なサイズで追尾撮影を開始することができる。図7は、本実施例を用いた場合の効果を示している。被写体を第1カメラ被写体認識手段45aで認識すると、第2のカメラ20bで被写体を撮影するべく捕捉制御を行う。   As described above, in this embodiment, in addition to the subject movement prediction from the image of the first camera 20a, the subject size prediction on the screen is used for subject capture control. As a result, it is possible to start tracking shooting of the subject with an optimum size from the time when it is captured by the second camera. FIG. 7 shows the effect when this embodiment is used. When the subject is recognized by the first camera subject recognition means 45a, capture control is performed so that the second camera 20b captures the subject.

図7aに示す従来技術では、被写体のサイズ情報を取得していないため、第2のカメラ20bで被写体を捉えた時点では、画角に対し被写体サイズが合っていないことがある。画面上で被写体が小さすぎるか大きすぎる場合には、被写体画像がテンプレートと適合せず、第2カメラ被写体認識部45bによる被写体認識に支障が出る可能性もある。しかし、本実施例を適用した場合には、図7bのように、被写体のサイズ予測を用いて雲台のズーム駆動を行いながら捕捉制御をするため、第2のカメラ20bで捕捉した時点から最適な画角で撮影することができる。   In the prior art shown in FIG. 7a, since the subject size information is not acquired, the subject size may not match the angle of view when the subject is captured by the second camera 20b. When the subject is too small or too large on the screen, the subject image does not match the template, and there is a possibility that the subject recognition by the second camera subject recognition unit 45b may be hindered. However, when the present embodiment is applied, as shown in FIG. 7b, the capture control is performed while performing zoom driving of the camera platform using the subject size prediction, so that it is optimal from the time when captured by the second camera 20b. You can shoot with a wide angle of view.

本実施例の派生するシステムは、実施例1に記載した派生するシステムと同様である。   The derived system of the present embodiment is the same as the derived system described in the first embodiment.

1 操作器、10 雲台、20a・20b カメラ、30a・30b レンズ、
40 追尾処理装置
1 operation unit, 10 pan head, 20a / 20b camera, 30a / 30b lens,
40 Tracking processing device

Claims (2)

少なくとも一台の、あらかじめ設定された範囲を監視する第1のカメラと、
少なくとも一台の、ズーム・パン・チルトの少なくともいずれか一つを駆動する雲台装置に搭載され、撮影光軸もしくは撮影画角を変化させることができる第2のカメラと、
前記第1、第2のカメラから出力された画像信号から追尾すべき被写体を認識し、前記第2のカメラを動作させ前記被写体を追尾するための制御演算を行う追尾処理装置と、
から構成される自動追尾装置において、
前記追尾処理装置は、
前記第1のカメラから出力された画像に基づいて追尾すべき被写体を認識する第1カメラ被写体認識手段と、
前記第1カメラ被写体認識手段が認識した前記被写体の速度を算出する被写体速度算出手段と、
前記被写体速度算出手段が算出した速度から前記被写体の移動する位置を予測する被写体位置予測手段と、
前記被写体位置予測手段が予測した被写体位置に基づき、前記被写体に前記第2のカメラの撮影光軸を向けるように前記雲台装置を制御する被写体捕捉手段と、
前記第2のカメラから出力された画像に基づいて追尾すべき被写体を認識する第2カメラ被写体認識手段と、
前記第2カメラ被写体認識手段が認識した前記被写体が、前記第2のカメラの撮影画面の中央に捕捉されるように前記雲台装置を駆動制御する第2カメラ追尾制御手段とを有し、
前記第2カメラ被写体認識手段が被写体を認識した後は、前記被写体捕捉手段に代えて前記第2カメラ追尾制御手段により前記雲台装置を制御し前記被写体の追尾撮影を行うことを特徴とする自動追尾装置。
At least one first camera for monitoring a preset range;
A second camera that is mounted on at least one pan / tilt head device that drives at least one of zoom, pan, and tilt, and that can change a photographing optical axis or a photographing angle of view;
A tracking processing device for recognizing a subject to be tracked from image signals output from the first and second cameras and operating the second camera to perform control calculation for tracking the subject;
In an automatic tracking device composed of
The tracking processing device includes:
First camera subject recognition means for recognizing a subject to be tracked based on an image output from the first camera;
Subject speed calculation means for calculating the speed of the subject recognized by the first camera subject recognition means;
Subject position prediction means for predicting the position where the subject moves from the speed calculated by the subject speed calculation means;
Subject capturing means for controlling the camera platform device to direct the photographing optical axis of the second camera toward the subject based on the subject position predicted by the subject position predicting means;
Second camera subject recognition means for recognizing a subject to be tracked based on an image output from the second camera;
Second camera tracking control means for driving and controlling the camera platform so that the subject recognized by the second camera subject recognition means is captured at the center of the shooting screen of the second camera;
After the second camera subject recognition means recognizes the subject, the second camera tracking control means controls the pan head device to perform tracking shooting of the subject instead of the subject capturing means. Tracking device.
前記追尾処理装置は、
前記第1カメラ被写体認識手段が認識した被写体のサイズの変化速度を算出する被写体サイズ変化速度算出手段と、
前記被写体サイズ変化速度算出手段が算出した速度から前記被写体のサイズを予測する被写体サイズ予測手段とを有し、
前記被写体捕捉手段は、
前記被写体サイズ予測手段が予測した被写体の予測サイズに適合するように前記第2のカメラの画角を制御することを特徴とする請求項1に記載の自動追尾装置。
The tracking processing device includes:
Subject size change speed calculating means for calculating a change speed of the size of the subject recognized by the first camera subject recognition means;
Subject size prediction means for predicting the size of the subject from the speed calculated by the subject size change speed calculation means;
The subject capturing means includes
2. The automatic tracking device according to claim 1, wherein the angle of view of the second camera is controlled so as to match the predicted size of the subject predicted by the subject size predicting unit.
JP2016096585A 2016-05-13 2016-05-13 Tracking apparatus Pending JP2017204795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016096585A JP2017204795A (en) 2016-05-13 2016-05-13 Tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016096585A JP2017204795A (en) 2016-05-13 2016-05-13 Tracking apparatus

Publications (1)

Publication Number Publication Date
JP2017204795A true JP2017204795A (en) 2017-11-16

Family

ID=60322964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016096585A Pending JP2017204795A (en) 2016-05-13 2016-05-13 Tracking apparatus

Country Status (1)

Country Link
JP (1) JP2017204795A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109788191A (en) * 2018-12-21 2019-05-21 中国科学院自动化研究所南京人工智能芯片创新研究院 Photographic method, device, computer equipment and storage medium
CN111103899A (en) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 Holder positioning method and device
CN112305534A (en) * 2019-07-26 2021-02-02 杭州海康威视数字技术股份有限公司 Target detection method, device, equipment and storage medium
CN114762316A (en) * 2019-12-09 2022-07-15 索尼集团公司 Image processing apparatus, image processing system, and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111103899A (en) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 Holder positioning method and device
CN109788191A (en) * 2018-12-21 2019-05-21 中国科学院自动化研究所南京人工智能芯片创新研究院 Photographic method, device, computer equipment and storage medium
CN112305534A (en) * 2019-07-26 2021-02-02 杭州海康威视数字技术股份有限公司 Target detection method, device, equipment and storage medium
CN112305534B (en) * 2019-07-26 2024-03-19 杭州海康威视数字技术股份有限公司 Target detection method, device, equipment and storage medium
CN114762316A (en) * 2019-12-09 2022-07-15 索尼集团公司 Image processing apparatus, image processing system, and image processing method

Similar Documents

Publication Publication Date Title
US20240069412A1 (en) Image pickup device and method of tracking subject thereof
JP4241742B2 (en) Automatic tracking device and automatic tracking method
JP4699040B2 (en) Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
JP4697810B2 (en) Automatic tracking device and automatic tracking method
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
JP6768537B2 (en) Image processing device, image processing method, program
JP6103948B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
US20200329202A1 (en) Image capturing apparatus, control method, and recording medium
JP2017204795A (en) Tracking apparatus
JP5210843B2 (en) Imaging device
US20090043422A1 (en) Photographing apparatus and method in a robot
WO2019104569A1 (en) Focusing method and device, and readable storage medium
JP6257308B2 (en) Automatic tracking system
WO2020029596A1 (en) Lens control method and device and terminal
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
JP5625443B2 (en) Imaging system and imaging apparatus
JP2016201626A (en) Shift element controller, shift element control program and optical apparatus
JP2007067510A (en) Video image photography system
JP4948294B2 (en) Imaging apparatus, imaging apparatus control method, and program
JP2016208230A (en) Control apparatus, optical instrument, imaging apparatus, and control method
JP3615867B2 (en) Automatic camera system
US7917021B2 (en) Portable apparatus
JP4189534B2 (en) Automatic tracking device
KR20170023494A (en) Scheme for supporting taking picture in apparatus equipped with camera
JPH07162730A (en) Mobile object image pickup device