JP6701402B2 - Automatic tracking device, automatic tracking method, imaging device, and program - Google Patents

Automatic tracking device, automatic tracking method, imaging device, and program Download PDF

Info

Publication number
JP6701402B2
JP6701402B2 JP2019038644A JP2019038644A JP6701402B2 JP 6701402 B2 JP6701402 B2 JP 6701402B2 JP 2019038644 A JP2019038644 A JP 2019038644A JP 2019038644 A JP2019038644 A JP 2019038644A JP 6701402 B2 JP6701402 B2 JP 6701402B2
Authority
JP
Japan
Prior art keywords
tilt
pan
moving body
region
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019038644A
Other languages
Japanese (ja)
Other versions
JP2019083585A (en
Inventor
北川 英一郎
英一郎 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019038644A priority Critical patent/JP6701402B2/en
Publication of JP2019083585A publication Critical patent/JP2019083585A/en
Application granted granted Critical
Publication of JP6701402B2 publication Critical patent/JP6701402B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像方向を変えるためのカメラ旋回機能を備える撮像装置の制御に関し、特に、検出した動体を追尾するための撮像方向のパン・チルト制御に関する。   The present invention relates to control of an image pickup apparatus having a camera turning function for changing an image pickup direction, and particularly to pan/tilt control of an image pickup direction for tracking a detected moving body.

動体検出機能を搭載し、撮像方向のパン・チルト制御が可能な監視カメラには、撮像領域内で検出した動体を表示画面の中央付近に捉え続けるように撮像方向のパン・チルト制御を行う自動追尾機能を備えるものがある。例えば、カメラ旋回機構を有し、撮像画像から動体を検出し、検出した動体を自動追尾して撮像画像内に写し続けるように、カメラ旋回機構を自動制御する撮像装置が提案されている(特許文献1参照)。また、表示画面内で動体を表示すべき位置の周囲に不感領域を設定し、不感領域内を動体の中心位置が移動する場合には動体の追従動作を行わないことにより、不要な映像のゆれを生じさせない追尾方法が提案されている(特許文献2参照)。   The surveillance camera, which has a moving object detection function and is capable of pan/tilt control in the imaging direction, automatically performs pan/tilt control in the imaging direction so as to keep capturing the moving object detected in the imaging area near the center of the display screen. Some have a tracking function. For example, an imaging apparatus has been proposed which has a camera turning mechanism, detects a moving object from a captured image, and automatically controls the camera rotating mechanism so that the detected moving object is automatically tracked and continuously captured in the captured image. Reference 1). In addition, by setting a dead area around the position where the moving object should be displayed on the display screen, and when the center position of the moving object moves within the dead area, the motion of the moving object is not followed so that unnecessary image fluctuations occur. A tracking method that does not cause the noise has been proposed (see Patent Document 2).

特開2004−40514号公報JP 2004-40514 A 特開平7−23270号公報JP 7-23270 A

ところで、高倍率な望遠機能を有するカメラ旋回機能付き監視カメラに対しては、一般的に、旋回動作後の停止位置精度が高いことが要求される。そこで、パン・チルト動作を行ったときのカメラの停止位置付近での停止精度を高めるために、パン・チルト動作が停止する直前に停止位置の微調整が行われている。しかし、停止位置の微調整に要する時間は、停止位置付近におけるパン・チルト機構の機械的(メカ的)なずれに依存するため、ずれが大きい場合には微調整時間が延びて、追従性が低下してしまう。   By the way, a surveillance camera with a camera turning function having a high-power telephoto function is generally required to have high stop position accuracy after the turning operation. Therefore, in order to improve the stop accuracy near the stop position of the camera when the pan/tilt operation is performed, the stop position is finely adjusted immediately before the pan/tilt operation is stopped. However, the time required for the fine adjustment of the stop position depends on the mechanical (mechanical) deviation of the pan/tilt mechanism in the vicinity of the stop position. Will fall.

また、カメラの停止位置合わせは、パン動作とチルト動作のそれぞれに対して行う必要があるため、一方の位置合わせを行うときには、他方は停止している必要がある。よって、停止位置合わせは、パン方向(左右方向)とチルト方向(上下方向)で同時に行われず、順番に行う必要がある。この場合、パン動作とチルト動作の同時駆動を行った場合に停止位置合わせにかかる時間は、パン動作とチルト動作のいずれか一方のみを行った場合よりも長くなってしまい、追従性が低下してしまう。   Further, since the stop position adjustment of the camera needs to be performed for each of the pan operation and the tilt operation, when one of the position adjustments is performed, the other needs to be stopped. Therefore, the stop alignment is not performed simultaneously in the pan direction (horizontal direction) and the tilt direction (vertical direction), but must be performed in order. In this case, the time required to adjust the stop position when the pan operation and the tilt operation are simultaneously driven is longer than that when only one of the pan operation and the tilt operation is performed, and the followability deteriorates. Will end up.

本発明は、検出した動体を自動追尾する際の追従性を向上させる技術を提供することを目的とする。   It is an object of the present invention to provide a technique for improving followability when automatically tracking a detected moving body.

本発明に係る自動追尾装置は、パン動作およびチルト動作によって撮像方向を変えることが可能な撮像手段により撮像された映像から動体を検出する検出手段と、前記検出手段が検出した動体を追尾するように前記撮像手段のパン制御およびチルト制御の少なくとも一方を行う制御手段と、を有し、前記制御手段は、前記動体の中心が前記映像の第一領域内にある場合、前記パン動作または前記チルト動作を停止させ、前記第一領域の形状は前記撮像手段のチルト位置に応じて変更されることを特徴とする。 An automatic tracking device according to the present invention is configured to detect a moving body from an image picked up by an image pickup means capable of changing an image pickup direction by a panning operation and a tilting operation, and to track the moving body detected by the detecting means. and a control means for performing at least one of the pan control and tilt control of the imaging means, wherein, when the center of the moving object is in the first area of the image, the panning operation or the the tilt operation is stopped, the shape of the first region is characterized Rukoto is changed according to a tilt position of the imaging means.

本発明に係る自動追尾装置によれば、検出した動体を自動追尾する際の追従性を向上させることができる。   According to the automatic tracking device of the present invention, it is possible to improve the tracking performance when automatically tracking the detected moving body.

本発明の実施形態に係る監視カメラの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a surveillance camera concerning an embodiment of the present invention. 図1の監視カメラについて、チルト位置が水平方向付近の場合における不感領域とゼロ補正領域を模式的に説明する図である。FIG. 3 is a diagram schematically illustrating a dead region and a zero correction region when the tilt position is near the horizontal direction in the surveillance camera in FIG. 1. 図1の監視カメラが天井に設置されているときのパン・チルト動作を模式的に示す図である。It is a figure which shows typically the pan/tilt operation when the surveillance camera of FIG. 1 is installed in the ceiling. 図1の監視カメラにより動体を自動追尾する第1の制御方法において、チルト位置が90度付近の場合に設定される不感領域とゼロ補正領域を模式的に説明する図である。FIG. 6 is a diagram schematically illustrating a dead region and a zero correction region set when the tilt position is near 90 degrees in the first control method of automatically tracking a moving object by the surveillance camera in FIG. 1. 図1の監視カメラにより動体を自動追尾する第1の制御方法のフローチャートである。6 is a flowchart of a first control method for automatically tracking a moving body by the surveillance camera of FIG. 1. 図5のステップS506における、パン・チルト移動量の補正方法のフローチャートである。6 is a flowchart of a pan/tilt movement amount correction method in step S506 of FIG. 5. 図1の監視カメラにより動体を自動追尾する第2の制御方法において、チルト位置が90度付近の場合に設定される不感領域とゼロ補正領域を模式的に説明する図である。FIG. 9 is a diagram schematically illustrating a dead region and a zero correction region that are set when the tilt position is near 90 degrees in the second control method for automatically tracking a moving object by the surveillance camera in FIG. 1. 図1の監視カメラにより動体を自動追尾する第2の制御方法のフローチャートである。6 is a flowchart of a second control method for automatically tracking a moving body by the surveillance camera of FIG. 1. 動体のサイズを考慮した不感領域と撮像画角との関係を示す図である。It is a figure which shows the relationship between a dead region and the imaging field angle which considered the size of a moving body. 図1の監視カメラにより動体を自動追尾する第3の制御方法のフローチャートである。9 is a flowchart of a third control method for automatically tracking a moving body by the surveillance camera of FIG. 1.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の実施形態に係る監視カメラ100の概略構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing a schematic configuration of a surveillance camera 100 according to the embodiment of the present invention.

監視カメラ100は、撮像方向を変えるためのカメラ旋回機能を備える撮像装置の一例である。監視カメラ100は、撮像部101、画像処理部102、システム制御部103、レンズ駆動部104、レンズ制御部105、パン動作駆動部106、パン動作制御部107、チルト動作駆動部108及びチルト動作制御部109を備える。また、監視カメラ100は、画像解析部110及び通信インタフェース部111を備える。   The surveillance camera 100 is an example of an imaging device having a camera turning function for changing the imaging direction. The surveillance camera 100 includes an imaging unit 101, an image processing unit 102, a system control unit 103, a lens drive unit 104, a lens control unit 105, a pan operation drive unit 106, a pan operation control unit 107, a tilt operation drive unit 108, and a tilt operation control. The unit 109 is provided. The surveillance camera 100 also includes an image analysis unit 110 and a communication interface unit 111.

撮像部101は、レンズや撮像素子等を備え、所定の領域を撮像し、光電変換により撮像された映像をアナログ電気信号に変換し、更に、アナログ電気信号をA/D変換してデジタルデータ(LAW画像)を生成する。撮像部で生成されたデジタルデータは、画像処理部102へ送られる。画像処理部102は、撮像部101から取得したデジタルデータに対して、所定の画像処理と圧縮符号化処理を行い、画像データを生成する。こうして、画像処理部102で生成された画像データは、通信インタフェース部111とネットワークを介してクライアント装置(後述)へ配信される。   The image pickup unit 101 includes a lens, an image pickup device, and the like, picks up an image of a predetermined area, converts an image picked up by photoelectric conversion into an analog electric signal, and further A/D converts the analog electric signal to obtain digital data ( A LAW image) is generated. The digital data generated by the imaging unit is sent to the image processing unit 102. The image processing unit 102 performs predetermined image processing and compression encoding processing on the digital data acquired from the image pickup unit 101 to generate image data. In this way, the image data generated by the image processing unit 102 is distributed to the client device (described later) via the communication interface unit 111 and the network.

システム制御部103は、演算手段であるCPUやプログラムを格納するメモリ、プログラムの展開領域とデータの記憶領域とを有するメモリ等を備える。システム制御部103は、プログラムを実行して監視カメラ100を構成する各部の動作制御を行うことにより、監視カメラ100の全体的な動作を統括制御する。例えば、システム制御部103は、レンズ制御部105に対するズームやフォーカス制御の指示、動体を自動追尾するためのパン動作制御部107及びチルト動作制御部109に対するパン動作及びチルト動作の指示、画像処理部102に対する画質調整の指示等を行う。   The system control unit 103 includes a CPU that is an arithmetic unit, a memory that stores a program, a memory that has a program development area and a data storage area, and the like. The system control unit 103 executes a program to control the operation of each unit included in the surveillance camera 100, and thus controls the overall operation of the surveillance camera 100. For example, the system control unit 103 instructs the lens control unit 105 to perform zoom or focus control, instructs the pan operation control unit 107 and the tilt operation control unit 109 to automatically track a moving object, and instructs the image processing unit. The image quality adjustment instruction or the like is given to 102.

レンズ駆動部104は、撮像部101に含まれるフォーカスレンズやズームレンズを駆動するための機械駆動系とその駆動源であるモータ等により構成されている。レンズ制御部105は、システム制御部103からの指示に基づいて、レンズ駆動部104の動作制御を行う。   The lens driving unit 104 includes a mechanical driving system for driving the focus lens and the zoom lens included in the image pickup unit 101, a motor that is a driving source thereof, and the like. The lens control unit 105 controls the operation of the lens driving unit 104 based on an instruction from the system control unit 103.

パン動作駆動部106は、撮像部101のパン動作を行う機械駆動系とその駆動源であるモータ等によって構成されており、撮像方向をパン方向において360度の無限旋回が可能に構成されている。パン動作制御部107は、システム制御部103からの指示に基づいて、パン動作駆動部106の動作制御を行う。なお、本実施形態では、パン方向は水平方向に設定されるものとする。   The pan operation drive unit 106 is configured by a mechanical drive system that performs the pan operation of the image pickup unit 101, a motor that is a drive source thereof, and the like, and is configured to be capable of 360° infinite turning in the image pickup direction in the pan direction. .. The pan operation control unit 107 controls the operation of the pan operation drive unit 106 based on an instruction from the system control unit 103. In the present embodiment, the pan direction is set to the horizontal direction.

チルト動作駆動部108は、撮像部101のチルト動作を行う機械駆動系とその駆動源であるモータ等によって構成されており、撮像方向をチルト方向に水平方向0度から+180度まで回転することができる。チルト動作制御部109は、システム制御部103からの指示に基づいて、チルト動作駆動部108の駆動制御を行う。なお、チルト方向は、本実施形態では、鉛直方向(鉛直面内)に設定されるものとする。   The tilt operation drive unit 108 includes a mechanical drive system that performs the tilt operation of the imaging unit 101 and a motor that is a drive source thereof, and can rotate the imaging direction in the tilt direction from 0 degrees to +180 degrees in the horizontal direction. it can. The tilt operation control unit 109 controls the drive of the tilt operation drive unit 108 based on an instruction from the system control unit 103. Note that the tilt direction is set to the vertical direction (within the vertical plane) in the present embodiment.

画像解析部110は、撮像部101により撮像された映像、つまり、画像処理部102が生成した撮像画像を解析し、例えば、後述するように、動体(追尾対象となる被写体)を検出する等の種々の解析処理を行う。通信インタフェース部111は、不図示のネットワークへの通信接続を可能にする。   The image analysis unit 110 analyzes the image captured by the image capturing unit 101, that is, the captured image generated by the image processing unit 102, and detects, for example, a moving body (a subject to be tracked) as described later. Performs various analysis processes. The communication interface unit 111 enables communication connection to a network (not shown).

本実施形態では、監視カメラ100は、通信インタフェース部111を介してLANやインターネット等のネットワークに接続され、接続されたネットワークを介して複数のクライアント装置(不図示)と通信可能に構成されている。そして、クライアント装置は、ネットワークを介して、監視カメラ100による撮像映像の表示、録画記録を行うことができる。また、クライアント装置は、カメラ制御指令を監視カメラ100に送信することにより、監視カメラ100の撮像条件の設定、パン動作、チルト動作等を行う。   In the present embodiment, the surveillance camera 100 is connected to a network such as a LAN or the Internet via the communication interface unit 111, and is configured to communicate with a plurality of client devices (not shown) via the connected network. .. Then, the client device can display a video image captured by the surveillance camera 100 and record and record it via the network. In addition, the client device transmits a camera control command to the monitoring camera 100, thereby performing setting of imaging conditions of the monitoring camera 100, pan operation, tilt operation, and the like.

次に、監視カメラ100の不感領域と、パン・チルト移動量をゼロ(0)に補正する領域(以下「ゼロ補正領域」という)について説明する。本実施形態では、不感領域とゼロ補正領域とを含む領域パターンを、撮像部101の姿勢、例えば、チルト位置に応じて設定する。   Next, an insensitive area of the surveillance camera 100 and an area for correcting the pan/tilt movement amount to zero (0) (hereinafter referred to as “zero correction area”) will be described. In the present embodiment, an area pattern including a dead area and a zero correction area is set according to the posture of the imaging unit 101, for example, the tilt position.

先ず、チルト位置が水平方向付近の場合における、不感領域について説明する。図2は、チルト位置が水平方向付近の場合における、監視カメラ100の不感領域とゼロ補正領域を模式的に説明する図である。不感領域201は、画面200の中央付近に存在する動体に対してパン・チルト動作を行わない領域である。不感領域201の幅と高さは、画面200上のピクセル数を基準とする。ここでは、一例として、不感領域201の幅を画面幅の20%、高さを画面高さの15%とし、不感領域201の位置を画面中心から上下左右(水平方向、鉛直方向)で均等となるように設定している。但し、不感領域201の幅、高さ及び位置の設定は、これに限定されるものではない。   First, the dead area when the tilt position is near the horizontal direction will be described. FIG. 2 is a diagram schematically illustrating the dead region and the zero correction region of the surveillance camera 100 when the tilt position is near the horizontal direction. The dead area 201 is an area in which the pan/tilt operation is not performed on the moving body existing near the center of the screen 200. The width and height of the dead area 201 are based on the number of pixels on the screen 200. Here, as an example, the width of the dead region 201 is 20% of the screen width and the height is 15% of the screen height, and the positions of the dead region 201 are equal in the vertical and horizontal directions (horizontal direction, vertical direction) from the screen center. Is set to be. However, the setting of the width, height and position of the dead area 201 is not limited to this.

例えば、画像解析部110が検出した動体の中心が画面200内の領域210内の点P1に位置する場合には、点P1は不感領域201外にあるため、システム制御部103は、パン・チルト制御を実行する。一方、動体が点P2に位置する場合には、点P2は不感領域201内にあるため、システム制御部103は、パン・チルト制御を実行しない。なお、動体が不感領域201の境界線上の点P3にあるときには、不感領域201内にあるものとして、システム制御部103はパン・チルト制御を実行しないものとする。   For example, when the center of the moving object detected by the image analysis unit 110 is located at the point P1 in the area 210 in the screen 200, the point P1 is outside the dead area 201, and therefore the system control unit 103 causes the pan/tilt. Execute control. On the other hand, when the moving object is located at the point P2, the system control unit 103 does not execute the pan/tilt control because the point P2 is in the dead region 201. When the moving object is at the point P3 on the boundary line of the dead area 201, the system control unit 103 does not execute the pan/tilt control because it is in the dead area 201.

続いて、チルト位置が水平方向付近の場合におけるゼロ補正領域について説明する。画面200の中央付近を上下に分割する横長のゼロ補正領域202は、チルト移動量をゼロに補正して、パン動作のみを行う領域を示している。また、画面中央付近を左右に分割する縦長のゼロ補正領域203は、パン移動量をゼロに補正して、チルト動作のみを行う領域を示している。   Next, the zero correction area when the tilt position is near the horizontal direction will be described. A horizontally long zero correction area 202 that vertically divides the vicinity of the center of the screen 200 is an area in which the tilt movement amount is corrected to zero and only the pan operation is performed. Further, a vertically long zero correction region 203 that divides the vicinity of the center of the screen into left and right is a region in which the pan movement amount is corrected to zero and only the tilt operation is performed.

ここで、ゼロ補正領域202の高さを不感領域201の高さよりも低く設定し、ゼロ補正領域203の幅は不感領域201の幅よりも狭く設定する。ゼロ補正領域202,203にはそれぞれ、画面中央付近で不感領域201と交差して重複している領域がある。この重複領域では、ゼロ補正領域202,203に対して定められた制御よりも、不感領域201に対して定められた制御が優先される。即ち、点P6,P7,P8に位置する動体については、その動体が不感領域201の外に移動しない限り、パン動作とチルト動作のどちらも行われない。   Here, the height of the zero correction area 202 is set lower than the height of the dead area 201, and the width of the zero correction area 203 is set narrower than the width of the dead area 201. Each of the zero correction regions 202 and 203 has a region which intersects with the dead region 201 and overlaps in the vicinity of the center of the screen. In this overlapping region, the control defined for the dead region 201 has priority over the control defined for the zero correction regions 202 and 203. That is, with respect to the moving body located at the points P6, P7, and P8, neither pan operation nor tilt operation is performed unless the moving body moves outside the dead zone 201.

次に、チルト位置が天頂方向の場合について説明する。監視カメラ100が建築物等の天井に設置されているとき、チルト角度が90度付近になると撮像方向は真下を向く。図3は、監視カメラ100が天井に設置されているときのパン・チルト動作を模式的に示す図である。図3(a)に示すように、パン動作は、表示画面上の画面中心を中心とする円運動となる。一方、チルト動作は、表示画面上の上下方向の移動となる。   Next, the case where the tilt position is in the zenith direction will be described. When the surveillance camera 100 is installed on the ceiling of a building or the like, when the tilt angle is around 90 degrees, the image pickup direction is directly downward. FIG. 3 is a diagram schematically showing the pan/tilt operation when the surveillance camera 100 is installed on the ceiling. As shown in FIG. 3A, the pan operation is a circular motion centered on the screen center on the display screen. On the other hand, the tilt operation is a vertical movement on the display screen.

この場合のパン・チルト制御による動体の画面200上での動きを、図3(b)を参照して説明する。画像解析部110が検出した動体が点P11に位置するときに、動体を画面中央で捉えるようにするためには、90度のパン動作により点P11を点P12の位置に移動させ、その後に動体が画面中心にくるようにチルト動作を行えばよい。また、検出された動体が点P13にある場合でも、動体を画面中央で捉えるために必要なパン移動量は、動体が点P11に位置していた場合と同じ90度である。よって、パン動作によって動体を点P13から点P14の位置へ移動させ、その後に動体が画面中心にくるようにチルト動作を行えばよい。これに対して、動体が点P15に位置する場合には、わずかのパン移動量で動体を点P12へ移動させることができる。しかし、チルト移動量は、動体が点P11にある場合と同じであり、点P12から画面中心までの移動量となる。   The movement of the moving body on the screen 200 by the pan/tilt control in this case will be described with reference to FIG. When the moving body detected by the image analysis unit 110 is located at the point P11, in order to capture the moving body at the center of the screen, the point P11 is moved to the position of the point P12 by the pan operation of 90 degrees, and then the moving body is moved. The tilting operation may be performed so that is at the center of the screen. Further, even when the detected moving body is at the point P13, the pan movement amount required to capture the moving body at the center of the screen is 90 degrees, which is the same as when the moving body was located at the point P11. Therefore, it is sufficient to move the moving body from the point P13 to the position of the point P14 by the pan operation, and then perform the tilt operation so that the moving body comes to the center of the screen. On the other hand, when the moving body is located at the point P15, the moving body can be moved to the point P12 with a slight pan movement amount. However, the tilt movement amount is the same as when the moving body is at the point P11, and is the movement amount from the point P12 to the center of the screen.

このように、パン移動量は、動体の位置と画面中心とを結ぶ直線と垂直軸との角度によって定まり、+90度〜−90度の範囲の値となる。チルト移動量は、動体の位置から画面中心までの距離によって定まり、最大移動量は、ズーム位置によって定まる水平画角の半分の値となる。なお、動体の位置とは、動体の中心位置であり、例えば、後述するように、動体を囲む外接矩形の中心位置で表される。   Thus, the pan movement amount is determined by the angle between the vertical axis and the straight line connecting the position of the moving body and the screen center, and has a value in the range of +90 degrees to −90 degrees. The amount of tilt movement is determined by the distance from the position of the moving body to the center of the screen, and the maximum amount of movement is half the horizontal angle of view determined by the zoom position. The position of the moving body is the center position of the moving body, and is represented by, for example, the center position of a circumscribed rectangle surrounding the moving body, as described later.

具体的には、レンズが20倍ズームでワイド端のときの垂直画角が40度、テレ端のときの垂直画角が2度であるとすると、ワイド端のときのチルト移動量は+20度〜−20度の範囲になり、テレ端のときは+1度〜−1度の範囲となる。なお、ここまでの説明では、パン動作が先に行われた後にチルト動作が行われるように説明したが、実際には、パン動作とチルト動作は同時に開始される。   Specifically, assuming that the vertical angle of view at the wide end is 40 degrees and the vertical angle of view at the tele end is 2 degrees at a zoom of 20 times, the tilt movement amount at the wide end is +20 degrees. The range is from -20 to -20 degrees, and the range from +1 to -1 degrees at the telephoto end. In the above description, the pan operation is performed first, and then the tilt operation is performed, but in reality, the pan operation and the tilt operation are simultaneously started.

次に、チルト位置が90度付近の場合の不感領域について説明する。図4は、チルト位置が90度付近の場合における、監視カメラ100の不感領域とゼロ補正領域を模式的に説明する図である。図3を参照して説明した通り、パン動作は画面中心を回転中心とした回転運動になるため、パン移動量が微小な領域は、図4(a)に示すような上下対称な三角形の領域401となる。一方、チルト動作は、画面中心方向へ向かう運動となるため、チルト移動量が微小な領域は、図4(b)に示すような画面中心からの距離が小さな円形の領域402となる。検出された動体を画面中心に移動させるためのチルト移動量は、動体の位置が画面中心に近づくに従って小さくなり、画面中心から遠ざかるに従って大きくなる。   Next, the dead area when the tilt position is near 90 degrees will be described. FIG. 4 is a diagram schematically illustrating the dead region and the zero correction region of the surveillance camera 100 when the tilt position is near 90 degrees. As described with reference to FIG. 3, since the pan operation is a rotational motion with the center of the screen as the center of rotation, a region with a small pan movement amount is a vertically symmetrical triangular region as shown in FIG. 4A. It becomes 401. On the other hand, since the tilt operation is a movement toward the center of the screen, the area where the amount of tilt movement is small becomes a circular area 402 having a small distance from the center of the screen as shown in FIG. 4B. The tilt movement amount for moving the detected moving body to the center of the screen decreases as the position of the moving body approaches the center of the screen, and increases as the position moves away from the center of the screen.

チルト移動量が大きく、且つ、パン移動量が微小な領域は、図4(c)に示す領域403で示される。また、パン移動量が大きく、且つ、チルト移動量が微小な領域は、図4(c)に示す領域404で示される。よって、図4(d)に示すように、領域403,404に画面中央付近の不感領域405を重ね合わせた領域が、チルト位置が90度付近の不感領域となる。   A region in which the tilt movement amount is large and the pan movement amount is small is indicated by a region 403 shown in FIG. A region where the pan movement amount is large and the tilt movement amount is small is indicated by a region 404 shown in FIG. 4C. Therefore, as shown in FIG. 4D, a region in which the dead region 405 near the center of the screen is overlapped with the regions 403 and 404 is a dead region where the tilt position is around 90 degrees.

ここで、図4(c)に示すチルト移動量をゼロに補正する領域404は、図4(d)に示すパン・チルト制御を行わない不感領域405内に完全に含まれるため、結果的に領域404は存在しなくなる。不感領域405の上下に位置する台形形状のゼロ補正領域406は、パン移動量をゼロに補正し、チルト動作のみが行われる領域である。   Here, the region 404 shown in FIG. 4C in which the tilt movement amount is corrected to zero is completely included in the dead region 405 in which the pan/tilt control is not performed shown in FIG. Region 404 no longer exists. The trapezoidal zero correction region 406 located above and below the dead region 405 is a region in which the pan movement amount is corrected to zero and only the tilt operation is performed.

なお、図4(d)に示す不感領域405は、後述する動体を自動追尾する第1の制御方法において、チルト位置が90度付近の場合において設定される不感領域である。このとき、図2の不感領域201と図4の不感領域405とを同じサイズの矩形領域とすることにより、チルト位置にかかわらずに、動体が不感領域201(405)の内部にいるか又は外部にいるかを判定することができる。   The dead zone 405 shown in FIG. 4D is a dead zone set when the tilt position is near 90 degrees in the first control method for automatically tracking a moving body, which will be described later. At this time, the dead area 201 in FIG. 2 and the dead area 405 in FIG. 4 are rectangular areas having the same size, so that the moving body is located inside or outside the dead area 201 (405) regardless of the tilt position. It can be determined.

次に、監視カメラ100により動体を自動追尾する第1の制御方法について説明する。図5は、監視カメラ100を用いて実行される自動追尾の第1の制御方法のフローチャートである。図5のフローチャートに示す各処理は、監視カメラ100を構成する各部がシステム制御部103による制御下において所定の動作を実行することで実現される。   Next, a first control method for automatically tracking a moving body by the monitoring camera 100 will be described. FIG. 5 is a flowchart of a first control method for automatic tracking performed using the surveillance camera 100. Each process shown in the flowchart of FIG. 5 is realized by each unit configuring the monitoring camera 100 performing a predetermined operation under the control of the system control unit 103.

ステップS501において画像解析部110は、画像処理部102から画像を取得し、現在フレーム画像と過去フレーム画像との差分から動体を検出する。ステップS502においてシステム制御部103は、動体が検出されたか否かを判定する。システム制御部103は、動体が検出された場合(S502でYES)、処理をステップS503へ進め、動体が検出されなかった場合(S502でNO)、本処理を終了させる。   In step S501, the image analysis unit 110 acquires an image from the image processing unit 102 and detects a moving object from the difference between the current frame image and the past frame image. In step S502, the system control unit 103 determines whether a moving body has been detected. When the moving body is detected (YES in S502), the system control unit 103 advances the process to step S503, and when the moving body is not detected (NO in S502), ends the process.

ステップS503においてシステム制御部103は、ステップS501で検出した動体を追尾対象となる被写体に設定し、検出した動体を囲む外接矩形を求め、更にその中心位置を求めることによって、画面上での動体の中心位置を取得する。なお、検出した動体を囲む外接矩形を求め、更にその中心位置を求める実際の演算処理は、画像解析部110が行うようにすることができる。   In step S503, the system control unit 103 sets the moving body detected in step S501 as a tracking target object, obtains a circumscribed rectangle surrounding the detected moving body, and further obtains the center position of the moving body on the screen. Get the center position. It should be noted that the image analysis unit 110 can be configured to perform the actual calculation process of obtaining the circumscribed rectangle surrounding the detected moving body and further obtaining the center position thereof.

続くステップS504においてシステム制御部103は、ステップS503で算出した動体の中心位置が不感領域の内部にあるか否かを判定する。システム制御部103は、動体の中心位置が不感領域の内部(境界線上を含む)にある場合(S504でYES)、処理をステップS501へ戻し、動体の中心位置が不感領域の内部にない場合(S504でNO)、処理をステップS505へ進める。なお、本実施形態では、前述の通り、図2の不感領域201と図4の不感領域405は同じサイズで同じ位置に設定しているため、ステップS504での判断基準となる不感領域が不感領域201,405のどちらであるかの判断を行う必要はない。   In the following step S504, the system control unit 103 determines whether the center position of the moving object calculated in step S503 is inside the dead area. When the center position of the moving body is inside the dead area (including on the boundary line) (YES in S504), the system control unit 103 returns the process to step S501, and when the center position of the moving body is not inside the dead area ( (NO in S504), the process proceeds to step S505. Note that, in the present embodiment, as described above, the dead area 201 of FIG. 2 and the dead area 405 of FIG. 4 are set to the same size and at the same position, so that the dead area serving as the determination reference in step S504 is the dead area. It is not necessary to determine which of 201 and 405.

ステップS505においてシステム制御部103は、画面上の動体位置、撮像部101が現在撮像を行っている方向であるパン・チルト絶対位置及び現在のズーム位置に基づいて、動体を画面中央で捉えるために必要なパン・チルト移動量を算出する。ステップS505で算出されるパン・チルト移動量は、動体の中心位置を画面中心へ移動させるために必要な移動量である。ここで、パン動作駆動部106は360度の無限旋回が可能であるため、パン絶対位置は0度〜360度の範囲の値となる。また、チルト動作駆動部108は0度〜180度の範囲で駆動可能であるため、チルト絶対位置は0度〜180度の範囲の値となる。   In step S505, the system control unit 103 captures the moving object at the center of the screen based on the moving object position on the screen, the pan/tilt absolute position in which the imaging unit 101 is currently imaging, and the current zoom position. Calculate the required pan/tilt movement amount. The pan/tilt movement amount calculated in step S505 is a movement amount required to move the center position of the moving body to the screen center. Here, since the pan operation drive unit 106 can make an infinite turn of 360 degrees, the pan absolute position has a value in the range of 0 degrees to 360 degrees. Further, since the tilt operation drive unit 108 can be driven in the range of 0 degrees to 180 degrees, the absolute tilt position has a value in the range of 0 degrees to 180 degrees.

続くステップS506においてシステム制御部103は、ステップS505で算出したパン・チルト移動量と現在のズーム位置とに基づいて、動体を画面中央に捉えるために必要なパン・チルト移動量とズーム移動量を補正する。ステップS506でのパン・チルト移動量の補正処理について、図6のフローチャートを参照して説明する。図6は、パン・チルト移動量の補正方法のフローチャートである。   In the following step S506, the system control unit 103 determines, based on the pan/tilt movement amount calculated in step S505 and the current zoom position, the pan/tilt movement amount and the zoom movement amount required to capture the moving object in the center of the screen. to correct. The correction processing of the pan/tilt movement amount in step S506 will be described with reference to the flowchart of FIG. FIG. 6 is a flowchart of a method for correcting the pan/tilt movement amount.

ステップS601においてシステム制御部103は、現在のズーム位置に基づいて撮像範囲の水平画角を求める。続くステップS602においてシステム制御部103は、パン移動量と水平画角を比較し、パン移動量が水平画角の所定の比率以上か否かを判定する。ここでは、判定基準となる所定の比率を10%とするが、これに限定されるものではない。システム制御部103は、パン移動量が水平画角の10%未満の場合(S602でNO)、処理をステップS603へ進め、パン移動量が水平画角の10%以上の場合(S602でYES)、処理をステップS604へ進める。   In step S601, the system control unit 103 obtains the horizontal angle of view of the imaging range based on the current zoom position. In subsequent step S602, the system control unit 103 compares the pan movement amount with the horizontal angle of view, and determines whether the pan movement amount is equal to or more than a predetermined ratio of the horizontal angle of view. Here, the predetermined ratio serving as the determination standard is set to 10%, but the present invention is not limited to this. When the pan movement amount is less than 10% of the horizontal angle of view (NO in S602), the system control unit 103 advances the process to step S603, and when the pan movement amount is 10% or more of the horizontal angle of view (YES in S602). , The process proceeds to step S604.

ステップS603においてシステム制御部103は、パン移動量をゼロに補正し、これにより本処理は終了となる。ステップS603の処理が実行されるのは、チルト位置が水平付近の場合には、動体が図2のゼロ補正領域203内にいるときであり、例えば、動体の中心位置が点P5の場合である。また、チルト位置が90度付近の場合には、動体が図4(d)のゼロ補正領域406内にいるときである。   In step S603, the system control unit 103 corrects the pan movement amount to zero, and this processing ends. The processing of step S603 is executed when the moving body is within the zero correction area 203 in FIG. 2 when the tilt position is near the horizontal position, for example, when the center position of the moving body is the point P5. .. Further, when the tilt position is near 90 degrees, it means that the moving body is in the zero correction area 406 of FIG. 4D.

ステップS604においてシステム制御部103は、現在のズーム位置に基づいて撮像範囲の垂直画角を求める。続くステップS605においてシステム制御部103は、チルト移動量と垂直画角を比較し、チルト移動量が垂直画角の所定の比率以上か否かを判定する。ここでは、判定基準となる所定の比率を10%とするが、これに限定されるものではない。システム制御部103は、チルト移動量が垂直画角の10%以上の場合(S605でYES)、本処理を終了させる。ここで本処理が終了となるのは、チルト位置が水平付近の場合には、動体が図2の領域210,220,230,340のいずれかの場所にいるときであり、例えば動体の中心位置が点P1にある場合である。また、チルト位置が90度付近の場合には、動体が図4(d)の不感領域405及びゼロ補正領域406のいずれにもいないときである。   In step S604, the system control unit 103 obtains the vertical angle of view of the imaging range based on the current zoom position. In subsequent step S605, the system control unit 103 compares the tilt movement amount with the vertical angle of view, and determines whether the tilt movement amount is equal to or more than a predetermined ratio of the vertical angle of view. Here, the predetermined ratio serving as the determination standard is set to 10%, but the present invention is not limited to this. When the tilt movement amount is 10% or more of the vertical angle of view (YES in S605), the system control unit 103 ends the present process. This processing ends here when the tilt position is near the horizontal when the moving body is in any one of the areas 210, 220, 230, and 340 in FIG. 2, and for example, the center position of the moving body. Is at the point P1. Further, when the tilt position is near 90 degrees, it means that the moving body is neither in the dead region 405 nor the zero correction region 406 in FIG. 4D.

システム制御部103は、ステップS605の判定において、チルト移動量が垂直画角の10%未満の場合(S605でNO)、処理をステップS606へ進める。そして、ステップS606においてシステム制御部103は、チルト移動量をゼロに補正し、これにより本処理は終了となる。ステップS606の処理が実行されるのは、チルト位置が水平付近の場合には、動体が図2のゼロ補正領域20内にいるときであり、例えば、動体の中心位置が点P4の場合である。また、チルト位置が90度付近の場合には、動体が図4(d)の領域404にいるときであるが、領域404は図4(d)の不感領域405に含まれるため、ステップS504の不感領域についての内外判定で既にパン・チルト動作を行わないと判定されている。 If it is determined in step S605 that the tilt movement amount is less than 10% of the vertical angle of view (NO in S605), the system control unit 103 advances the process to step S606. Then, in step S606, the system control unit 103 corrects the tilt movement amount to zero, and this processing ends. The process of step S606 is executed, if the tilt position is near horizontal, moving object is when you are in the zero correction region 20 2 in FIG. 2, for example, in the case the center position of the moving object at the point P4 is there. Further, when the tilt position is near 90 degrees, it means that the moving body is in the area 404 of FIG. 4D, but since the area 404 is included in the dead area 405 of FIG. It is already determined by the inside/outside determination of the dead region that the pan/tilt operation is not performed.

図5の説明に戻る。ステップS507においてシステム制御部103は、補正後のパン移動量とチルト移動量に応じて処理を分岐させる。システム制御部103は、補正後のパン移動量がゼロでなく、且つ、チルト移動量がゼロの場合には、処理をステップS508へ進め、補正後のパン移動量がゼロであり、且つ、チルト移動量がゼロでない場合には、処理をステップS510へ進める。また、システム制御部103は、補正後のパン移動量とチルト移動量がそれぞれゼロでない場合には、処理をステップS512へ進める。   Returning to the explanation of FIG. In step S507, the system control unit 103 branches the process according to the corrected pan movement amount and tilt movement amount. When the corrected pan movement amount is not zero and the tilt movement amount is zero, the system control unit 103 advances the process to step S508, and the corrected pan movement amount is zero and the tilt movement amount is zero. If the amount of movement is not zero, the process proceeds to step S510. If the corrected pan movement amount and tilt movement amount are not zero, the system control unit 103 advances the process to step S512.

ステップS508においてシステム制御部103は、パン動作の制御のみを行う。その後、ステップS509においてシステム制御部103は、パン動作が終了したか否かを判定する。システム制御部103は、パン動作が終了していない場合(S509でNO)、ステップS509の判定を繰り返し、パン動作が終了した場合(S509でYES)、処理をステップS501へ戻す。   In step S508, the system control unit 103 only controls the pan operation. Then, in step S509, the system control unit 103 determines whether or not the pan operation has ended. If the pan operation has not ended (NO in S509), the system control unit 103 repeats the determination in step S509, and if the pan operation has ended (YES in S509), returns the process to step S501.

ステップS510において、システム制御部103は、チルト動作の制御のみを行う。その後、ステップS511において、システム制御部103は、チルト動作が終了したか否かを判定する。システム制御部103は、チルト動作が終了していない場合(S511でNO)、ステップS511の判定を繰り返し、チルト動作が終了した場合(S511でYES)、処理をステップS501へ戻す。   In step S510, the system control unit 103 only controls the tilt operation. Then, in step S511, the system control unit 103 determines whether or not the tilt operation has ended. If the tilt operation has not ended (NO in S511), the system control unit 103 repeats the determination in step S511, and if the tilt operation has ended (YES in S511), returns the process to step S501.

ステップS512においてシステム制御部103は、パン動作とチルト動作の両方の制御を行う。その後、ステップS513においてシステム制御部103は、パン・チルト動作が終了したか否かを判定する。システム制御部103は、パン・チルト動作が終了していない場合(S513でNO)、ステップS513の判定を繰り返し、パン・チルト動作が終了した場合(S513でYES)、処理をステップS501へ戻す。   In step S512, the system control unit 103 controls both the pan operation and the tilt operation. Then, in step S513, the system control unit 103 determines whether the pan/tilt operation is completed. If the pan/tilt operation has not ended (NO in S513), the system control unit 103 repeats the determination of step S513, and if the pan/tilt operation has ended (YES in S513), returns the process to step S501.

以上の説明の通り、動体を自動追尾する第1の制御方法によれば、パン移動量とチルト移動量をそれぞれ強制的にゼロにする領域を設けることで、パン動作とチルト動作が同時に実行されることを抑制し、その実行頻度を減らす。これにより、自動追尾のためのパン・チルト動作に要する時間を短縮して、動体に対する追従性を高めることができる。   As described above, according to the first control method of automatically tracking a moving object, the pan operation and the tilt operation are simultaneously executed by providing the areas for forcibly setting the pan movement amount and the tilt movement amount to zero. To reduce the frequency of its execution. As a result, the time required for the pan/tilt operation for automatic tracking can be shortened and the ability to follow a moving object can be improved.

次に、監視カメラ100により動体を自動追尾する第2の制御方法について説明する。動体を自動追尾する第2の制御方法では、チルト位置が90度付近の場合に、図(d)で説明したゼロ補正領域に、チルト移動量をゼロに補正するゼロ補正領域を更に追加する。 Next, a second control method for automatically tracking a moving body by the surveillance camera 100 will be described. In the second control method for automatically tracking a moving object, the tilt position in the case of around 90 degrees, zero correction region described in FIG. 4 (d), the further adding a zero correction region for correcting the tilt movement amount to zero .

図7は、監視カメラ100により動体を自動追尾する第2の制御方法において、チルト位置が90度付近の場合において設定される不感領域とゼロ補正領域を模式的に説明する図である。図7(a)中の示す三角形の領域701内では、パン動作の移動角度が90に近いため、動作時間が長くなってしまう。そのため、画面中央付近より多少の距離がある場合であっても、極力、チルト動作を行いたくない。そこで、図7(b)に示す扇形のゼロ補正領域702を、チルト動作を行わない領域として、図4(d)に示したパターン(不感領域405、ゼロ補正領域406)に追加する。図7(c)は、図7(b)のパターンと図4(d)のパターンを重ね合わせた不感領域及びゼロ補正領域を表す図である。ゼロ補正領域702において矩形の不感領域405と重複しない領域が、チルト移動量をゼロに補正し、パン動作のみが行われるゼロ補正領域である。   FIG. 7 is a diagram schematically illustrating a dead area and a zero correction area that are set when the tilt position is near 90 degrees in the second control method of automatically tracking a moving object by the monitoring camera 100. In the triangular area 701 shown in FIG. 7A, since the movement angle of the pan operation is close to 90, the operation time becomes long. Therefore, even if there is a little distance from the vicinity of the center of the screen, it is not desirable to perform the tilt operation as much as possible. Therefore, the fan-shaped zero correction area 702 shown in FIG. 7B is added to the pattern (dead area 405, zero correction area 406) shown in FIG. 4D as an area in which the tilt operation is not performed. FIG. 7C is a diagram showing a dead region and a zero correction region in which the pattern of FIG. 7B and the pattern of FIG. 4D are superimposed. An area in the zero correction area 702 that does not overlap the rectangular dead area 405 is a zero correction area in which the tilt movement amount is corrected to zero and only the pan operation is performed.

図8は、監視カメラ100を用いて実行される自動追尾の第2の制御方法のフローチャートである。図8のフローチャートに示す各処理は、監視カメラ100を構成する各部がシステム制御部103による制御下において所定の動作を実行することで実現される。なお、ここでは、画像解析部110により追尾対象となる動体が検出されたことを前提に説明を行うこととする。   FIG. 8 is a flowchart of a second control method for automatic tracking executed using the surveillance camera 100. Each process shown in the flowchart of FIG. 8 is realized by each unit configuring the surveillance camera 100 performing a predetermined operation under the control of the system control unit 103. Note that the description will be made here on the assumption that the moving object to be tracked is detected by the image analysis unit 110.

ステップS801においてシステム制御部103は、動体の画面上の中心位置を取得する。ステップS801の処理内容は、図5のステップS503の処理内容と同じである。続いて、システム制御部103は、現在のチルト位置を取得し、真下付近であるか否かを判定する。ここでは、チルト位置が85度〜95度の範囲にあるときに真下付近であると判定し、これ以外の範囲にあるときに真下付近でないと判定するものとする。システム制御部103は、チルト位置が真下付近でない場合(S802でNO)、処理をステップS803へ進め、チルト位置が真下付近である場合(S802でYES)、処理をステップS805へ進める。   In step S801, the system control unit 103 acquires the center position of the moving object on the screen. The processing content of step S801 is the same as the processing content of step S503 of FIG. Subsequently, the system control unit 103 acquires the current tilt position and determines whether or not the tilt position is right below. Here, when the tilt position is in the range of 85 degrees to 95 degrees, it is determined to be near the bottom, and when it is in a range other than this, it is determined to be not near the bottom. If the tilt position is not directly below (NO in S802), the system control unit 103 proceeds with the process to step S803, and if the tilt position is near directly below (YES in S802), the process proceeds to step S805.

ステップS803においてシステム制御部103は、図2を参照して説明した水平方向付近の領域パターン(不感領域201、ゼロ補正領域202,203)を設定する。続くステップS804においてシステム制御部103は、現在のズーム位置に基づいてゼロ補正領域202の高さとゼロ補正領域203の幅を決定する。例えば、現在のズーム位置から画面の垂直画角と水平画角を求め、垂直画角の10%をゼロ補正領域202の高さとし、水平画角の10%をゼロ補正領域203の幅とする。   In step S803, the system control unit 103 sets the area pattern (dead area 201, zero correction areas 202 and 203) near the horizontal direction described with reference to FIG. In subsequent step S804, the system control unit 103 determines the height of the zero correction area 202 and the width of the zero correction area 203 based on the current zoom position. For example, the vertical angle of view and the horizontal angle of view of the screen are obtained from the current zoom position, 10% of the vertical angle of view is the height of the zero correction area 202, and 10% of the horizontal angle of view is the width of the zero correction area 203.

ステップS805においてシステム制御部103は、図7(c)に示した真下付近の領域パターン(不感領域405、ゼロ補正領域406,702)を設定する。そして、ステップS806においてシステム制御部103は、現在のズーム位置に基づいてチルト移動量をゼロにするゼロ補正領域702の半径を決定する。ここでは、現在のズーム位置から画面の水平画角を求め、水平画角の15%をゼロ補正領域702の半径とするが、これに限定されるものではない。なお、ゼロ補正領域702,406の中心角度は、ズーム位置によらず一定に定められている。   In step S805, the system control unit 103 sets the area pattern (dead area 405, zero correction areas 406 and 702) near the area directly underneath shown in FIG. 7C. Then, in step S806, the system control unit 103 determines the radius of the zero correction region 702 in which the tilt movement amount is zero based on the current zoom position. Here, the horizontal angle of view of the screen is obtained from the current zoom position, and 15% of the horizontal angle of view is set as the radius of the zero correction region 702, but the present invention is not limited to this. The center angles of the zero correction regions 702 and 406 are fixed regardless of the zoom position.

システム制御部103は、ステップS804,S806の処理後に、ステップS807へ処理を進め、ステップS807において、動体の中心位置が不感領域405内にあるか否かを判定する。システム制御部103は、動体の中心位置が不感領域405内にある場合(S807でYES)、処理をステップS808へ進め、動体の中心位置が不感領域405内にない場合(S807でNO)、処理をステップS809へ進める。   The system control unit 103 advances the processing to step S807 after the processing of steps S804 and S806, and in step S807, determines whether or not the center position of the moving body is within the dead zone 405. If the center position of the moving body is within the dead region 405 (YES in S807), the system control unit 103 advances the process to step S808. If the center position of the moving body is not within the dead region 405 (NO in S807), the process is performed. To Step S809.

ステップS808においてシステム制御部103は、パン・チルト動作を行うことなく、本処理を終了させる。一方、ステップS809においてシステム制御部103は、動体を画面中央で捉えるために必要なパン・チルト移動量を、動体の画面上の位置、現在のパン・チルト位置及びズーム位置から求まる水平画角・垂直画角から算出する。ここでも、算出されるパン・チルト移動量は、動体の中心位置を画面中心へ移動させるために必要な移動量である。   In step S808, the system control unit 103 ends this processing without performing the pan/tilt operation. On the other hand, in step S809, the system control unit 103 determines the amount of pan/tilt movement required to capture the moving object at the center of the screen by the horizontal angle of view/angle calculated from the position of the moving object on the screen, the current pan/tilt position, and the zoom position. Calculated from the vertical angle of view. Also in this case, the calculated pan/tilt movement amount is a movement amount required to move the center position of the moving body to the center of the screen.

続くステップS810においてシステム制御部103は、チルト移動量をゼロに補正してパン動作のみを行われるゼロ補正領域702内に動体の中心位置があるか否かを判定する。システム制御部103は、動体の中心位置がゼロ補正領域702内にある場合(S810でYES)、処理をステップS811へ進め、動体の中心位置がゼロ補正領域702内にない場合(S810でNO)、処理をステップS812へ進める。   In subsequent step S810, the system control unit 103 corrects the tilt movement amount to zero and determines whether or not the center position of the moving body is in the zero correction region 702 in which only the pan operation is performed. When the center position of the moving object is within the zero correction area 702 (YES in S810), the system control unit 103 advances the process to step S811, and when the center position of the moving object is not within the zero correction area 702 (NO in S810). , The process proceeds to step S812.

ステップS811においてシステム制御部103は、チルト移動量をゼロに補正して、本処理を終了させる。なお、動体の中心位置が、図7のゼロ補正領域702内であって、しかも、不感領域405と重複する領域内にある場合には、既にステップS807がYESとなって、処理はステップS808へ進んでいる。つまり、ステップS810の判定がYESとなる場合とは、動体の中心位置が、図7のゼロ補正領域702内であって、不感領域405と重複しない領域の内部にある場合である。   In step S811, the system control unit 103 corrects the tilt movement amount to zero, and ends this processing. If the center position of the moving body is within the zero correction area 702 of FIG. 7 and also within the area overlapping the dead area 405, step S807 has already become YES and the process proceeds to step S808. It is progressing. That is, the case where the determination in step S810 is YES is the case where the center position of the moving body is within the zero correction region 702 of FIG. 7 and within the region that does not overlap with the dead region 405.

ステップS812においてシステム制御部103は、パン移動量をゼロに補正してチルト動作のみが行われるゼロ補正領域406内に動体の中心位置があるか否かを判定する。システム制御部103は、動体の中心位置がゼロ補正領域406内にある場合(S812でYES)、処理をステップS813へ進め、動体の中心位置がゼロ補正領域406内にない場合(S812でNO)、処理をステップS814へ進める。   In step S812, the system control unit 103 corrects the pan movement amount to zero and determines whether or not the center position of the moving object is in the zero correction region 406 where only the tilt operation is performed. When the center position of the moving object is within the zero correction area 406 (YES in S812), the system control unit 103 advances the process to step S813, and when the center position of the moving object is not within the zero correction area 406 (NO in S812). , The process proceeds to step S814.

ステップS813においてシステム制御部103は、パン移動量をゼロに補正して、本処理を終了させる。また、ステップS814においてシステム制御部103は、パン・チルト移動量を補正せずに、本処理を終了させる。   In step S813, the system control unit 103 corrects the pan movement amount to zero, and ends this processing. Further, in step S814, the system control unit 103 ends this processing without correcting the pan/tilt movement amount.

このような第2の制御方法によれば、第1の制御方法と比べて、チルト動作を行わない領域が増えるために、動体に対する追従性を更に高めることができる。   According to such a second control method, as compared with the first control method, the region in which the tilt operation is not performed is increased, so that it is possible to further improve the followability to the moving body.

次に、監視カメラ100により動体を自動追尾する第3の制御方法について説明する。上述した第1及び第2の制御方法では、動体の位置に基づいてパン・チルト動作の駆動制御を行った。これに対して、第3の制御方法では、動体の位置だけでなく、動体のサイズにも注目してパン・チルト動作の駆動制御を行うことで、動体の表示画面(撮像画角)からのはみ出しを防止する。   Next, a third control method for automatically tracking a moving body by the monitoring camera 100 will be described. In the above-described first and second control methods, the drive control of the pan/tilt operation is performed based on the position of the moving body. On the other hand, in the third control method, not only the position of the moving body but also the size of the moving body is used to perform the drive control of the pan/tilt operation, so that the display screen (image pickup angle of view) of the moving body is changed. Prevent the protrusion.

図9は、動体のサイズを考慮した不感領域と撮像画角との関係を示す図である。図9(a)に示す不感領域901は、図2を参照して説明した不感領域201や図4を参照して説明した不感領域405と同じとすることができる。画像解析部110により撮像画角内に追跡対象となる被写体である動体が検出されると、画像解析部110(又はシステム制御部103)は、動体の中心位置903として、動体に対する外接矩形902の中心位置を求める。   FIG. 9 is a diagram showing the relationship between the dead region and the imaging angle of view in consideration of the size of the moving body. The dead area 901 shown in FIG. 9A can be the same as the dead area 201 described with reference to FIG. 2 or the dead area 405 described with reference to FIG. When the image analysis unit 110 detects a moving object that is a tracking target within the imaging angle of view, the image analysis unit 110 (or the system control unit 103) sets the center position 903 of the moving object to the circumscribed rectangle 902 with respect to the moving object. Find the center position.

動体の中心位置903が不感領域901内にある場合には、第1及び第2の制御方法ではパン・チルト動作の駆動制御を行わなかった。しかし、動体のサイズが大きく、動体の中心位置903が不感領域901内にあるためにパン・チルト動作の駆動制御を行わないとした場合に動体が更に不感領域901内を移動したときに、図9(a)に示すように、動体が表示画面からはみ出してしまうことがある。そこで、動体を自動追尾する第3の制御方法では、このような動体の表示画面からのはみ出しを防止する。図9(b),(c)については、以下に説明する図10のフローチャートについての説明において、併せて説明する。   When the center position 903 of the moving body is within the dead zone 901, the drive control of the pan/tilt operation was not performed by the first and second control methods. However, when the size of the moving body is large and the center position 903 of the moving body is in the dead area 901 and the drive control of the pan/tilt operation is not performed, when the moving body further moves in the dead area 901, As shown in FIG. 9(a), the moving object may run off the display screen. Therefore, in the third control method of automatically tracking a moving body, such a protruding of the moving body from the display screen is prevented. 9B and 9C will be described together in the description of the flowchart of FIG. 10 described below.

図10は、監視カメラ100により実行される自動追尾の第3の制御方法のフローチャートである。図10のフローチャートに示す各処理は、監視カメラ100を構成する各部がシステム制御部103による制御下において所定の動作を実行することで実現される。なお、ここでの説明には、図9に用いられている符号を適宜用い、また、画像解析部110により追尾対象となる動体が検出されたことを前提に説明を行うこととする。   FIG. 10 is a flowchart of a third control method for automatic tracking executed by the surveillance camera 100. Each process shown in the flowchart of FIG. 10 is realized by each unit configuring the monitoring camera 100 performing a predetermined operation under the control of the system control unit 103. It should be noted that in the description here, the reference numerals used in FIG. 9 will be used as appropriate, and the description will be given on the assumption that the moving object to be tracked is detected by the image analysis unit 110.

ステップS1001においてシステム制御部103は、検出した動体の画面上の位置を取得する。続く、ステップS1002においてシステム制御部103は、動体の中心位置903を求め、中心位置903が不感領域901内にあるか否かを判定する。システム制御部103は、動体の中心位置903が不感領域901内にある場合(S1002でYES)、処理をステップS1003へ進め、動体の中心位置903が不感領域901内にない場合(S1002でYES)、処理をステップS1004へ進める。   In step S1001, the system control unit 103 acquires the detected position of the moving body on the screen. Subsequently, in step S1002, the system control unit 103 obtains the center position 903 of the moving body and determines whether the center position 903 is within the dead zone 901. When the center position 903 of the moving body is in the dead region 901 (YES in S1002), the system control unit 103 advances the process to step S1003, and when the center position 903 of the moving body is not in the dead region 901 (YES in S1002). , The process proceeds to step S1004.

ステップS1002において動体の中心位置903を求めるために、既に動体の外接矩形902が求められている。そこで、ステップS1003においてシステム制御部103は、外接矩形902から画面端までの距離が所定の閾値より小さいか否かを判定する。   In order to obtain the center position 903 of the moving body in step S1002, the circumscribed rectangle 902 of the moving body has already been obtained. Therefore, in step S1003, the system control unit 103 determines whether the distance from the circumscribed rectangle 902 to the screen edge is smaller than a predetermined threshold value.

ステップS1003の判定について、図9(b),(c)を参照して具体的に説明する。図9(b)の場合、外接矩形902と画面の上下端との距離hu1,hd1をそれぞれ画面の高さHと比較し、外接矩形902と画面の左右端との距離wl1,wr1をそれぞれ画面の幅Wと比較する。例えば、hu1,hd1の少なくとも一方の値が所定の閾値Th_hより小さい場合には、外接矩形902と画角端までの画面上の距離が所定の閾値より小さいと判定する。また、wl1,wr1の少なくとも一方の値が所定の閾値Th_wより小さい場合にも、外接矩形902と画角端までの画面上の距離が所定の閾値より小さいと判定する。   The determination in step S1003 will be specifically described with reference to FIGS. 9B and 9C. In the case of FIG. 9B, the distances hu1 and hd1 between the circumscribing rectangle 902 and the upper and lower ends of the screen are compared with the height H of the screen, and the distances wl1 and wr1 between the circumscribing rectangle 902 and the left and right ends of the screen are calculated respectively. Compare with the width W of. For example, when at least one of hu1 and hd1 is smaller than the predetermined threshold value Th_h, it is determined that the distance on the screen between the circumscribed rectangle 902 and the angle of view is smaller than the predetermined threshold value. Also, when at least one of wl1 and wr1 is smaller than the predetermined threshold value Th_w, it is determined that the distance on the screen between the circumscribed rectangle 902 and the angle of view is smaller than the predetermined threshold value.

同様に、図9(c)の場合、外接矩形902と画面の上下端との距離hu2,hd2をそれぞれ画面の高さHと比較し、外接矩形902と画面の左右端との距離wl2,wr2をそれぞれ画面の幅Wと比較する。そして、hu2,hd2の少なくとも一方の値が所定の閾値Th_hより小さい場合には、外接矩形902と画角端までの画面上の距離が所定の閾値より小さいと判定する。また、wl2,wr2の少なくとも一方の値が所定の閾値Th_wより小さい場合にも、外接矩形902と画角端までの画面上の距離が所定の閾値より小さいと判定する。   Similarly, in the case of FIG. 9C, the distances hu2 and hd2 between the circumscribed rectangle 902 and the upper and lower ends of the screen are compared with the height H of the screen, respectively, and the distances wl2 and wr2 between the circumscribed rectangle 902 and the left and right ends of the screen are compared. Respectively with the width W of the screen. If at least one of hu2 and hd2 is smaller than the predetermined threshold value Th_h, it is determined that the distance on the screen between the circumscribed rectangle 902 and the angle of view is smaller than the predetermined threshold value. Further, even when at least one of the values wl2 and wr2 is smaller than the predetermined threshold value Th_w, it is determined that the distance on the screen between the circumscribed rectangle 902 and the angle of view is smaller than the predetermined threshold value.

ここでは、図9(b)の例は、4つの距離値のいずれもが対応する閾値以上であり、よって、ステップS1003ではNOと判定される例である。一方、図9(c)の例は、4つの距離値のうちのhu2が閾値Th_wより小さく、よって、ステップS1003ではYESと判定される例である。なお、ステップS1003の判定には、距離hu1,hd1,hu2,hd2と高さHとの比の値を所定の閾値と比較し、距離wl1,wr1,wl2,wr2と幅Wとの比の値を所定の閾値と比較するようにしてもよい。   Here, the example of FIG. 9B is an example in which all of the four distance values are equal to or greater than the corresponding threshold values, and thus NO is determined in step S1003. On the other hand, the example in FIG. 9C is an example in which hu2 of the four distance values is smaller than the threshold Th_w, and thus YES is determined in step S1003. For the determination in step S1003, the ratio value between the distances hu1, hd1, hu2, hd2 and the height H is compared with a predetermined threshold value, and the ratio value between the distances wl1, wr1, wl2, wr2 and the width W is calculated. May be compared with a predetermined threshold.

システム制御部103は、外接矩形902から画面端までの距離が所定の閾値以上である場合(S1003でNO)、処理をステップS1004へ進める。ステップS1004においてシステム制御部103は、動体を画面内で移動させても動体が画面からはみ出ることがないため、パン・チルト動作を行い、これにより本処理は終了となる。一方、システム制御部103は、外接矩形902から画面端までの距離が所定の閾値より小さい場合(S1003でYES)、処理をステップS1005へ進める。ステップS1005においてシステム制御部103は、動体を画面移動させると動体が画面からはみ出すおそれがあるため、パン・チルト動作を行わず、これにより本処理は終了となる。   When the distance from the circumscribed rectangle 902 to the screen edge is equal to or greater than the predetermined threshold (NO in S1003), the system control unit 103 advances the process to step S1004. In step S1004, the system control unit 103 performs a pan/tilt operation because the moving body does not protrude from the screen even if the moving body is moved within the screen, and this processing ends. On the other hand, when the distance from the circumscribed rectangle 902 to the screen edge is smaller than the predetermined threshold value (YES in S1003), the system control unit 103 advances the process to step S1005. In step S1005, the system control unit 103 does not perform the pan/tilt operation because the moving body may move out of the screen when the screen is moved, and this processing ends.

このように、動体を自動追尾する第3の制御方法でも、第1及び第2の制御方法と同じ効果が得られる。また、動体を自動追尾する第3の制御方法では、動体のサイズを考慮して不感領域を判定してパン・チルト動作の駆動制御を行わないために、動体が画面(撮像画角)からはみ出すことを防止することができる。   As described above, the third control method for automatically tracking a moving object can also achieve the same effect as the first and second control methods. Further, in the third control method of automatically tracking a moving body, the size of the moving body is taken into consideration, the dead area is determined, and the drive control of the pan/tilt operation is not performed, so the moving body protrudes from the screen (image pickup angle of view). Can be prevented.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
<Other embodiments>
Although the present invention has been described above in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various embodiments within the scope not departing from the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an example of the present invention, and the embodiments may be combined as appropriate.

また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention also supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 監視カメラ
101 撮像部
102 画像処理部
103 システム制御部
106 パン動作駆動部
107 パン動作制御部
108 チルト動作駆動部
109 チルト動作制御部
100 Monitoring Camera 101 Imaging Unit 102 Image Processing Unit 103 System Control Unit 106 Pan Operation Drive Unit 107 Pan Operation Control Unit 108 Tilt Operation Drive Unit 109 Tilt Operation Control Unit

Claims (7)

パン動作およびチルト動作によって撮像方向を変えることが可能な撮像手段により撮像された映像から動体を検出する検出手段と、
前記検出手段が検出した動体を追尾するように前記撮像手段のパン制御およびチルト制御の少なくとも一方を行う制御手段と、を備え、
前記制御手段は、前記動体の中心が前記映像の第一領域内にある場合、前記パン動作または前記チルト動作を停止させ
前記第一領域の形状は前記撮像手段のチルト位置に応じて変更されることを特徴とする自動追尾装置。
Detection means for detecting a moving body from a video imaged by an imaging means capable of changing the imaging direction by a pan operation and a tilt operation;
Control means for performing at least one of pan control and tilt control of the image pickup means so as to track the moving body detected by the detection means,
Wherein, when the center of the moving object is in the first area of the image, to stop the panning operation or the tilting operation,
Automatic tracking apparatus shape of the first region, wherein Rukoto is changed according to a tilt position of the imaging means.
前記制御手段は、前記動体の中心が前記映像の第二領域内にある場合、前記パン動作および前記チルト動作を停止することを特徴とする請求項1に記載の自動追尾装置。 The control means, automatic tracking apparatus according to claim 1 in which the center of the moving object when in the second region of said image, characterized in that it stops the pan operation and the tilt operation. 記第一領域の大きさ前記撮像手段のズーム位置に応じて調整されることを特徴とする請求項に記載の自動追尾装置。 Before SL automatic tracking apparatus according the size of the first region to claim 1, characterized in Rukoto adjusted according to the zoom position of the imaging means. 撮像方向を変えるパン動作およびチルト動作が可能な撮像手段により撮像される動体を、コンピュータによって前記撮像手段を制御することにより自動追尾する自動追尾方法であって、
前記撮像手段により撮像された映像から動体を検出する検出ステップと、
前記検出ステップで検出された動体を追尾するように前記撮像手段の前記パン動作および前記チルト動作の少なくとも一方を制御する制御ステップと、を有し、
前記制御ステップでは、前記動体の中心が前記映像の第一領域の内部にある場合前記パン動作または前記チルト動作を停止し、
前記第一領域の形状は前記撮像手段のチルト位置に応じて変更されることを特徴とする自動追尾方法。
What is claimed is: 1. An automatic tracking method for automatically tracking a moving object imaged by an image pickup means capable of panning and tilting operations for changing an image pickup direction by controlling the image pickup means by a computer,
A detection step of detecting a moving object from the video imaged by the imaging means,
A control step of controlling at least one of the pan operation and the tilt operation of the imaging means so as to track the moving body detected in the detecting step,
In the control step, the stop panning operation or the tilting operation when the center of the moving object is within the first region of the image,
The automatic tracking method, wherein the shape of the first area is changed according to the tilt position of the image pickup means .
請求項に記載の自動追尾方法をコンピュータに実行させることを特徴とするプログラム。 A program that causes a computer to execute the automatic tracking method according to claim 4 . パン動作およびチルト動作によって撮像方向を変えることが可能な撮像手段と、
前記撮像手段により撮像された映像から動体を検出する検出手段と、
前記検出手段が検出した動体を追尾するように前記撮像手段のパン制御およびチルト制御の少なくとも一方を行う制御手段と、を備え、
前記制御手段は、前記検出手段により検出された動体の中心が前記映像の第一領域内にある場合、前記パン動作または前記チルト動作を停止させ
前記第一領域の形状は前記撮像手段のチルト位置に応じて変更されることを特徴とする撮像装置。
An image pickup means capable of changing the image pickup direction by a pan operation and a tilt operation;
A detection unit that detects a moving object from the video imaged by the imaging unit;
Control means for performing at least one of pan control and tilt control of the image pickup means so as to track the moving body detected by the detection means,
Wherein, when the center of the moving object detected by said detecting means is in a first region of the image, to stop the panning operation or the tilting operation,
Imaging apparatus shape of the first region, wherein Rukoto is changed according to a tilt position of the imaging means.
前記検出手段および前記制御手段を有する制御装置と前記撮像手段とは、ネットワークを介して通信可能に接続されていることを特徴とする請求項に記載の撮像装置。 7. The image pickup apparatus according to claim 6 , wherein a control device having the detection unit and the control unit and the image pickup unit are communicably connected via a network.
JP2019038644A 2019-03-04 2019-03-04 Automatic tracking device, automatic tracking method, imaging device, and program Active JP6701402B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019038644A JP6701402B2 (en) 2019-03-04 2019-03-04 Automatic tracking device, automatic tracking method, imaging device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038644A JP6701402B2 (en) 2019-03-04 2019-03-04 Automatic tracking device, automatic tracking method, imaging device, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014225073A Division JP2016092606A (en) 2014-11-05 2014-11-05 Automatic tracking device, automatic tracking method, imaging device, and program

Publications (2)

Publication Number Publication Date
JP2019083585A JP2019083585A (en) 2019-05-30
JP6701402B2 true JP6701402B2 (en) 2020-05-27

Family

ID=66670678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038644A Active JP6701402B2 (en) 2019-03-04 2019-03-04 Automatic tracking device, automatic tracking method, imaging device, and program

Country Status (1)

Country Link
JP (1) JP6701402B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723270A (en) * 1993-06-30 1995-01-24 Sony Corp Video camera system
JPH09186927A (en) * 1995-12-28 1997-07-15 Sony Corp Tracking device and tracking method
JP4189534B2 (en) * 1999-12-13 2008-12-03 フジノン株式会社 Automatic tracking device
US6661450B2 (en) * 1999-12-03 2003-12-09 Fuji Photo Optical Co., Ltd. Automatic following device
JP2002171438A (en) * 2000-11-29 2002-06-14 Fuji Photo Optical Co Ltd Automatic tracking device
JP5875453B2 (en) * 2012-04-19 2016-03-02 キヤノン株式会社 Automatic tracking device

Also Published As

Publication number Publication date
JP2019083585A (en) 2019-05-30

Similar Documents

Publication Publication Date Title
KR102183803B1 (en) Information processing apparatus and information processing method
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
US10798345B2 (en) Imaging device, control method of imaging device, and storage medium
WO2022041475A1 (en) Method and apparatus for adjusting projection picture, and projection device
JP2011030160A5 (en)
TWI691208B (en) Improved monitoring camera direction control
JP2008283680A (en) Supporting continuous pan rotation in pan-tilt camera
US11132814B2 (en) Information processing apparatus, information processing method, and storage medium
KR101111503B1 (en) Apparatus for controlling Pan/Tilt/Zoom camera in omnidirectional and method for the same
WO2018168406A1 (en) Photography control device, photography system, and photography control method
US11184549B2 (en) Image-capturing system, information processing apparatus, control method of information processing apparatus, and storage medium
JP6701402B2 (en) Automatic tracking device, automatic tracking method, imaging device, and program
KR102314943B1 (en) Information processing apparatus, information processing method, and recording medium
JP6231757B2 (en) Imaging apparatus, information processing apparatus, control method therefor, and program
JP2011066517A (en) Imaging system, imager, information processor, and imaging method
JP2004146890A (en) Monitor camera apparatus and monitor camera system apparatus
JP5108323B2 (en) Surveillance camera and surveillance camera control method
JP2016092606A (en) Automatic tracking device, automatic tracking method, imaging device, and program
US11394886B1 (en) Electronic device and control method for image capture device thereof
JP2007189559A (en) Surveillance camera system and camera control method
JP3814282B2 (en) Imaging apparatus and control method thereof
JP2008263270A (en) Camera device
JP2013012930A (en) Omnidirectional imaging device and control method therefor
JP2004289658A (en) Image pickup system and method for operating image pickup device
JP3357628B2 (en) Viewfinder control device and television camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6701402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151