JP6626669B2 - Camera control system and camera control method - Google Patents

Camera control system and camera control method Download PDF

Info

Publication number
JP6626669B2
JP6626669B2 JP2015175059A JP2015175059A JP6626669B2 JP 6626669 B2 JP6626669 B2 JP 6626669B2 JP 2015175059 A JP2015175059 A JP 2015175059A JP 2015175059 A JP2015175059 A JP 2015175059A JP 6626669 B2 JP6626669 B2 JP 6626669B2
Authority
JP
Japan
Prior art keywords
camera
angle
magnification
view
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015175059A
Other languages
Japanese (ja)
Other versions
JP2017050829A (en
Inventor
馨 大本
馨 大本
京市郎 帷子
京市郎 帷子
一郎 有山
一郎 有山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Information and Telecommunication Engineering Ltd
Original Assignee
Hitachi Information and Telecommunication Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Information and Telecommunication Engineering Ltd filed Critical Hitachi Information and Telecommunication Engineering Ltd
Priority to JP2015175059A priority Critical patent/JP6626669B2/en
Publication of JP2017050829A publication Critical patent/JP2017050829A/en
Application granted granted Critical
Publication of JP6626669B2 publication Critical patent/JP6626669B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラ制御システム、及び、カメラ制御方法に係り、特に、レーザセンサにより対象物の検知と測距を行ない、監視カメラにより高精度で対象物を追尾して画像撮影をするのに好適な可能にカメラ制御システム、及び、カメラ制御方法に関する。   The present invention relates to a camera control system and a camera control method, and in particular, is suitable for detecting an object using a laser sensor and measuring a distance, and tracking an object with high accuracy by a monitoring camera to capture an image. The present invention relates to a camera control system and a camera control method.

従来より、防犯、防災、記録などの目的のために、監視カメラシステムが積極的に活用されてきた。監視カメラシステムにおいては、ビデオカメラにより対象物を撮影し、その画像データをネットワークを介して、遠隔にあるHDD(Hard Disk Drive)などの記憶装置に記憶し、モニタから監視できるようにしている。   Conventionally, surveillance camera systems have been actively used for security, disaster prevention, recording, and the like. In a surveillance camera system, an object is photographed by a video camera, and the image data is stored in a remote storage device such as a hard disk drive (HDD) via a network, and can be monitored from a monitor.

ところで、監視カメラシステムにおいては、監視対象が広域にわたり、防犯や交通監視などの目的に使用されるときには、対象を把捉して、追尾する制御が必要になる。ここで、監視カメラシステムの撮影の対象とは、防犯の場合には、不審者であり、交通監視では、車両になる。   By the way, in a surveillance camera system, when a surveillance target is used over a wide area and is used for the purpose of crime prevention, traffic monitoring, or the like, control for grasping and tracking the target is required. Here, the target of shooting by the surveillance camera system is a suspicious individual in the case of crime prevention, and a vehicle in traffic monitoring.

一方、移動する対象物を検知し、測距を行うシステムとしては、レーザレーダシステムがある。レーザレーダシステムは、光を用いたリモートセンシング技術の一つで、パルス状に発光するレーザ照射に対する散乱光を、レーザセンサにより測定し、遠距離にある対象までの距離やその対象の性質を分析するものである。   On the other hand, there is a laser radar system as a system for detecting a moving object and performing distance measurement. A laser radar system is a remote sensing technology that uses light to measure the scattered light from a laser beam emitted in a pulsed manner using a laser sensor to analyze the distance to a distant target and the properties of the target. Is what you do.

このような特徴を利用して、対象物の把捉をレーザレーダにより行ない、それに監視カメラを追尾させるカメラ制御システムが提案されてきた。例えば、特許文献1に記載の「警備システム」においては、センサ部からの距離データ及び角度データにより侵入者の位置を算出し、その位置データにより電動旋回台の旋回カメラ部を旋回させ、侵入者の画像データをモニタに表示させるようにしている。   Utilizing such features, a camera control system has been proposed in which an object is grasped by a laser radar and a surveillance camera is tracked by the laser radar. For example, in the “security system” described in Patent Literature 1, the position of an intruder is calculated based on distance data and angle data from a sensor unit, and the turning camera unit of the electric turntable is turned based on the position data. Is displayed on a monitor.

特開平10−241062号公報JP-A-10-241062

上記従来技術の特許文献1の記載の技術では、カメラの向きを制御できるが、望遠を行わないため、距離により、対象画像が小さくなってしまうという問題点がある。また、一般的なレーザセンサを用いた計測では、レーザセンサの検出速度に対して、カメラの制御・旋回速度が遅く、追尾が遅れてしまうという問題点があった。   According to the technique described in Patent Document 1 of the related art described above, the direction of the camera can be controlled. However, since telephoto is not performed, there is a problem that the target image is reduced depending on the distance. Further, in measurement using a general laser sensor, there is a problem that the control / turning speed of the camera is slower than the detection speed of the laser sensor, and tracking is delayed.

本発明は、上記問題点を解決するためになされたもので、その目的は、レーザセンサにより対象物の検知と測距を行ない、高速かつ高精度でレーザセンサが把捉した対象物を追尾して画像撮影をすることを可能にするカメラ制御システムを提供することにある。   The present invention has been made in order to solve the above-described problems, and an object thereof is to detect an object and measure a distance using a laser sensor, and to track an object captured by the laser sensor with high speed and high accuracy. An object of the present invention is to provide a camera control system capable of taking an image.

本発明のカメラ制御システムは、レーザセンサと、カメラと、制御装置が各々接続され、レーザセンサにより対象物の位置を検知し、カメラによりその対象物を撮影するカメラ制御システムであって、一定時間毎に対象物の位置を検出する対象検出部と、対象物の位置情報を測定する位置情報測定部と、対象物のカメラの撮影上の画角幅と倍率を演算し、その条件によってカメラ制御の契機を判定するカメラ画角・倍率判定部と、カメラに対して、パン・チルト制御と、ズーム倍率の制御を行うカメラ動作指示部とを備える。そして、対象物が、画角幅の端から所定の割合いで引かれるカメラ制御ラインを超えたときに、対象物が画角の中心となるように、カメラに対して、パン・チルト制御を行ない、対象物が、記憶されている過去の倍率と、現在の倍率が所定の差以上になるときに、カメラに対して、現在の倍率になるように、ズーム倍率の制御を行うようにする。   A camera control system according to the present invention is a camera control system in which a laser sensor, a camera, and a control device are respectively connected, a position of an object is detected by a laser sensor, and an image of the object is captured by the camera, and the camera control system is provided for a predetermined time. A target detection unit that detects the position of the target object, a position information measurement unit that measures the position information of the target object, and the angle of view and magnification of the target object taken by the camera are calculated. And a camera operation instructing unit that controls pan / tilt control and zoom magnification of the camera. Then, when the object exceeds a camera control line drawn at a predetermined rate from the end of the angle of view, pan / tilt control is performed on the camera so that the object is at the center of the angle of view. When the difference between the stored past magnification of the target object and the current magnification is equal to or more than a predetermined difference, the zoom magnification is controlled so that the camera has the current magnification.

また、望ましくは、位置情報測定部は、過去の対象物の動きベクトルから、所定時間経過後の対処物の位置を予測し、対象物の位置を求める。   Preferably, the position information measurement unit predicts the position of the target object after a predetermined time has elapsed from the past motion vector of the target object, and obtains the position of the target object.

さらに、位置情報測定部は、カメラが、単位角度分パン・チルトを行う時間tPTと、カメラのパン・チルトを行うための初動時間TPTを保持し、A度のパン・チルトを行うときに、A・tPT+TPT分の時間を考慮して、対象物の位置を求めるようにする。 Further, the position information measuring unit holds the time t PT at which the camera performs pan / tilt by a unit angle and the initial movement time T PT for performing pan / tilt of the camera, and performs the A-degree pan / tilt. Then, the position of the target object is determined in consideration of the time of A · t PT + T PT .

本発明によれば、レーザセンサにより対象物の検知と測距を行ない、高速かつ高精度でレーザセンサが把捉した対象物を追尾して画像撮影をすることを可能にするカメラ制御システムを提供することができる。   According to the present invention, there is provided a camera control system capable of detecting an object by a laser sensor and measuring a distance, and tracking an object captured by the laser sensor with high speed and high accuracy to capture an image. be able to.

第一の実施形態に係るカメラ制御システムの全体構成図である。FIG. 1 is an overall configuration diagram of a camera control system according to a first embodiment. 第一の実施形態に係るカメラ制御システムの機能構成図である。FIG. 2 is a functional configuration diagram of the camera control system according to the first embodiment. 第一の実施形態に係るカメラ制御システムの対象物を把握するときのモデル図である。It is a model figure when grasping an object of a camera control system concerning a first embodiment. カメラの構成図である。It is a block diagram of a camera. 第一の実施形態に係るカメラ制御システムの動作を示すフローチャートである。5 is a flowchart illustrating an operation of the camera control system according to the first embodiment. カメラの制御パラメタと対象物の位置の関係を説明する図である。FIG. 4 is a diagram illustrating a relationship between a camera control parameter and a position of an object. 画角とカメラ制御ラインを説明する図である。FIG. 3 is a diagram illustrating an angle of view and a camera control line. カメラ仕様情報データを示す図である。It is a figure showing camera specification information data. カメラ測定情報データを示す図である。It is a figure showing camera measurement information data. カメラ制御情報データを示す図である。It is a figure showing camera control information data. 予測制御のための位置演算を説明する図である。It is a figure explaining position calculation for prediction control. カメラ制御システムの予測制御を説明する図である。FIG. 3 is a diagram illustrating predictive control of a camera control system.

以下、本発明の各実施形態を、図1ないし図10を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS.

〔実施形態1〕
以下、本発明の第一の実施形態に係るカメラ制御システムを、図1ないし図8Cを用いて説明する。
[Embodiment 1]
Hereinafter, a camera control system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 8C.

先ず、図1ないし図4を用いて本発明の第一の実施形態に係るカメラ制御システムの構成と原理について説明する。図1は、第一の実施形態に係るカメラ制御システムの全体構成図である。図2は、第一の実施形態に係るカメラ制御システムの機能構成図である。図3は、第一の実施形態に係るカメラ制御システムの対象物を把握するときのモデル図である。図4は、カメラの構成図である。   First, the configuration and principle of a camera control system according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an overall configuration diagram of a camera control system according to the first embodiment. FIG. 2 is a functional configuration diagram of the camera control system according to the first embodiment. FIG. 3 is a model diagram of the camera control system according to the first embodiment when grasping an object. FIG. 4 is a configuration diagram of the camera.

本発明の第一の実施形態に係るカメラ制御システムは、図1に示されるように、レーザセンサ100と、制御装置200と、カメラ300を有しており、それらがネットワークにより接続されている。   As shown in FIG. 1, the camera control system according to the first embodiment of the present invention includes a laser sensor 100, a control device 200, and a camera 300, which are connected by a network.

レーザセンサ100は、半導体レーザが発光する光を照射して、その反射光を受光して、対象物10の存在と距離を測定する装置である。   The laser sensor 100 is a device that irradiates light emitted by a semiconductor laser, receives the reflected light, and measures the presence and the distance of the object 10.

カメラ300は、制御装置200からの指令に基づいて、カメラのレンズを回転させたり、ズーム機能により撮影の倍率を調整して、対象エリア110内の対象物10の画像を取得する装置である。   The camera 300 is a device that obtains an image of the object 10 in the target area 110 by rotating the lens of the camera or adjusting the magnification of photographing by a zoom function based on a command from the control device 200.

制御装置200は、レーザセンサ100の測定データを基に、対象物10の位置を特定して、それに基づいてカメラ300の制御を行う装置である。制御装置200は、一般的なパーソナルコンピュータ(PC:Personal Computer)に必要なソフトウェアをインストールして実現してもよいし、専用のハードウェアを用意してもよい。   The control device 200 is a device that specifies the position of the object 10 based on the measurement data of the laser sensor 100 and controls the camera 300 based on the position. The control device 200 may be realized by installing necessary software on a general personal computer (PC: Personal Computer), or dedicated hardware may be prepared.

なお、図1に示した例では、制御装置200と、レーザセンサ100、カメラ300は、ネットワークで接続されているが、RS232CやUSBなどのシリアルインタフェースで接続されていてもよい。   In the example shown in FIG. 1, the control device 200, the laser sensor 100, and the camera 300 are connected via a network, but may be connected via a serial interface such as RS232C or USB.

制御装置200は、CPU(Central Processing Unit)202、メモリ204、ネットワークI/F206、表示I/F208、入出力I/F210、補助記憶I/F212が、バスにより結合された形態になっている。   The control device 200 has a form in which a CPU (Central Processing Unit) 202, a memory 204, a network I / F 206, a display I / F 208, an input / output I / F 210, and an auxiliary storage I / F 212 are connected by a bus.

CPU202は、制御装置200の各部を制御し、主記憶装置204に必要なプログラムをロードして実行する。   The CPU 202 controls each unit of the control device 200, loads necessary programs to the main storage device 204, and executes them.

メモリ204は、通常、RAMなどの揮発メモリで構成され、CPU202が実行するプログラム、参照するデータが記憶される。   The memory 204 is generally constituted by a volatile memory such as a RAM, and stores a program executed by the CPU 202 and data to be referred to.

ネットワークI/F206は、ネットワークと接続するためのインタフェースである。   The network I / F 206 is an interface for connecting to a network.

表示I/F208は、LCD(Liquid Crystal Display)などの表示装置220を接続するためのインタフェースである。   The display I / F 208 is an interface for connecting a display device 220 such as an LCD (Liquid Crystal Display).

入出力I/F210は、入出力装置を接続するためのインタフェースである。図1の例では、キーボード230とポインティングデバイスのマウス232が接続されている。   The input / output I / F 210 is an interface for connecting an input / output device. In the example of FIG. 1, a keyboard 230 and a mouse 232 as a pointing device are connected.

補助記憶I/F212は、HDD(Hard Disk Drive)250やSSD(Solid State Drive)どの補助記憶装置を接続するためのインタフェースである。   The auxiliary storage I / F 212 is an interface for connecting an auxiliary storage device such as a hard disk drive (HDD) 250 or a solid state drive (SSD).

HDD250は、大容量の記憶容量を有しており、本実施形態を実行するためのプログラムが格納されている。制御装置200には、センサ制御プログラム700、検出・測距プログラム702、エリア判定プログラム704、カメラ制御プログラム706、カメラドライバ708がインストールされている。   The HDD 250 has a large storage capacity, and stores a program for executing the present embodiment. In the control device 200, a sensor control program 700, a detection / ranging program 702, an area determination program 704, a camera control program 706, and a camera driver 708 are installed.

センサ制御プログラム700は、レーザセンサ100を制御するためのプログラムである。検出・測距プログラム702は、レーザセンサ100により、対象物10を検出し、その距離を測定するプログラムである。エリア判定プログラム704は、レーザセンサ100の測定結果により求められた対象物10が、カメラ300の対象エリア110に含まれるか否かを判定するためのプログラムである。カメラ制御プログラム706は、レーザセンサ100の測定結果に基づいて、カメラに対する制御を行うプログラムである。カメラI/Fプログラム708は、接続されたカメラ300のインタフェース処理を行うプログラムであり、各社のカメラ300の通信方法、コマンド、シーケンスの差異は、この部分で調整される。   The sensor control program 700 is a program for controlling the laser sensor 100. The detection / ranging program 702 is a program for detecting the object 10 by the laser sensor 100 and measuring the distance. The area determination program 704 is a program for determining whether or not the target object 10 obtained based on the measurement result of the laser sensor 100 is included in the target area 110 of the camera 300. The camera control program 706 is a program for controlling the camera based on the measurement result of the laser sensor 100. The camera I / F program 708 is a program that performs interface processing of the connected camera 300, and differences in the communication method, command, and sequence of the camera 300 of each company are adjusted in this part.

また、HDD250には、カメラプログラムで撮影した画像データ720が保存され、監視のために必要に応じて参照される。   The HDD 250 stores image data 720 photographed by the camera program, and is referred to as necessary for monitoring.

次に、図2を用いて第一の実施形態に係るカメラ制御システムの機能構成について説明する。   Next, a functional configuration of the camera control system according to the first embodiment will be described with reference to FIG.

本実施形態のカメラ制御システムは、図2に示されるように、センサ制御部402、対象検出部404、位置情報測定部406、エリア判定部408、カメラ制御部410、カメラI/F部420の各機能を備える。   As shown in FIG. 2, the camera control system according to the present embodiment includes a sensor control unit 402, an object detection unit 404, a position information measurement unit 406, an area determination unit 408, a camera control unit 410, and a camera I / F unit 420. Each function is provided.

センサ制御部402は、レーザセンサ100の制御をする部分である。対象検出部404は、レーザセンサ100からの測定結果に基づいて、対象物を検出する部分である。位置情報測定部406は、レーザセンサ100からの測定結果に基づいて、対象物までの距離を測定し、その位置を検出する部分である。エリア判定部408は、対象物10が、カメラ300のエリアに含まれるか否かを判定する部分である。カメラ制御部410は、レーザセンサ100の測定結果に基づいて、カメラに対する制御を行う部分であり、カメラ画角・倍率判定部412と、カメラ動作指示部414の機能部分を有する。カメラ画角・倍率判定部412は、レーザセンサ100の測定結果と、内部の制御データに基づいて、対象物のカメラの画角や倍率を計算する部分である。カメラ動作指示部414は、カメラ画角・倍率判定部412での演算結果に基づいて、カメラの動作指示を与える部分である。カメラI/Fプログラム708は、接続されたカメラ300のインタフェースを行う部分であり、各社のカメラ300の通信方法、コマンド、シーケンスの差異は、この部分で調整されることを意図している。   The sensor control unit 402 is a part that controls the laser sensor 100. The target detection unit 404 is a part that detects a target based on a measurement result from the laser sensor 100. The position information measurement unit 406 is a unit that measures a distance to an object based on a measurement result from the laser sensor 100 and detects the position. The area determination unit 408 is a part that determines whether the target object 10 is included in the area of the camera 300. The camera control unit 410 is a unit that controls the camera based on the measurement result of the laser sensor 100, and includes functional units of a camera view angle / magnification determination unit 412 and a camera operation instruction unit 414. The camera angle of view / magnification determination unit 412 is a part that calculates the angle of view and the magnification of the camera of the target object based on the measurement result of the laser sensor 100 and the internal control data. The camera operation instructing unit 414 is a unit that gives an operation instruction of the camera based on the calculation result in the camera angle of view / magnification determining unit 412. The camera I / F program 708 is a part for interfacing the connected camera 300, and the difference in the communication method, command, and sequence of the camera 300 of each company is intended to be adjusted in this part.

本実施形態のカメラ制御システムでの対象物を把握するときのイメージを平面的に見ると、図3に示されるようになる。対象物10は、レーザセンサ100により位置(x,y,z)を把握されて、それが対象エリア110にあるときには、カメラ300により撮影される。このときの画角は、αになっている(後述)。   FIG. 3 is a plan view of an image when grasping an object in the camera control system according to the present embodiment. The position (x, y, z) of the object 10 is grasped by the laser sensor 100, and when the object 10 is located in the object area 110, the object 300 is photographed by the camera 300. The angle of view at this time is α (described later).

次に、図4を用いてカメラの構成について説明する。
カメラ300は、コマンドI/F部50、モータ制御部52、ズーム制御部54、パン方向モータ56、チルト方向モータ58、パン方向雲台60、チルト方向雲台62、カメラレンズ部64を有している。
Next, the configuration of the camera will be described with reference to FIG.
The camera 300 includes a command I / F unit 50, a motor control unit 52, a zoom control unit 54, a pan direction motor 56, a tilt direction motor 58, a pan direction head 60, a tilt direction head 62, and a camera lens unit 64. ing.

カメラ300は、コマンドI/F部50で外部からのコマンドを受け付けて、それをモータ制御部52と、ズーム制御部54に受けわたす。モータ制御部52では、そのコマンドの指示に従い、パン方向モータ56を回転させ、パン方向雲台60を、指示された角度だけ(パン方向:横方向)、カメラレンズ部68を回転させる。同様に、チルト方向モータ58を回転させ、チルト方向雲台62を、指示された角度だけ(チルト方向:縦方向)、カメラレンズ部68を回転させる。   The camera 300 receives a command from the outside at the command I / F unit 50, and transfers it to the motor control unit 52 and the zoom control unit 54. The motor control unit 52 rotates the pan direction motor 56 in accordance with the instruction of the command, and rotates the camera lens unit 68 by rotating the pan direction pan head 60 by the designated angle (pan direction: lateral direction). Similarly, the tilt direction motor 58 is rotated, and the tilt direction pan head 62 is rotated by the designated angle (tilt direction: vertical direction) to rotate the camera lens unit 68.

次に、図5ないし図8Cを用いて第一の実施形態に係るカメラ制御システムの動作について説明する。図5は、第一の実施形態に係るカメラ制御システムの動作を示すフローチャートである。図6は、カメラの制御パラメタと対象物の位置の関係を説明する図である。図7は、画角とカメラ制御ラインを説明する図である。図8Aは、カメラ仕様情報データを示す図である。図8Bは、カメラ測定情報データを示す図である。図8Cは、カメラ制御情報データを示す図である。   Next, the operation of the camera control system according to the first embodiment will be described with reference to FIGS. 5 to 8C. FIG. 5 is a flowchart illustrating the operation of the camera control system according to the first embodiment. FIG. 6 is a view for explaining the relationship between the control parameters of the camera and the position of the object. FIG. 7 is a diagram illustrating an angle of view and a camera control line. FIG. 8A is a diagram showing camera specification information data. FIG. 8B is a diagram showing camera measurement information data. FIG. 8C is a diagram showing camera control information data.

先ず、カメラ制御システムは、周期的にレーザセンサ100により対象物10を捕捉して、測定結果を得る(S10)。ここで、周期的な時間は、システムで予め設定された時間であり、例えば、250[ms]である。この時間は、管理者が変更できるようにしてもよい。   First, the camera control system periodically captures the object 10 by the laser sensor 100 and obtains a measurement result (S10). Here, the periodic time is a time preset in the system, for example, 250 [ms]. This time may be changed by an administrator.

次に、対象物の位置計算を計算する(S12)。対象物10の座標を(x,y,z)、カメラ300の座標を(X,Y,Z)、カメラから対象物の距離をR(図8Bの♯801)とすると、R(≧0)は、以下の(式1)で表される。
=(x−X)+(y−Y)+(z−Z) … (式1)
Next, the position of the object is calculated (S12). If the coordinates of the object 10 are (x, y, z), the coordinates of the camera 300 are (X, Y, Z), and the distance of the object from the camera is R (# 801 in FIG. 8B), R (≧ 0) Is represented by the following (Equation 1).
R 2 = (xx) 2 + (y−Y) 2 + (z−Z) 2 (formula 1)

次に、対象物10がカメラ撮影の対象エリア110にあるか否かの判定を行ない(S14)、対象物10がカメラ撮影の対象エリア110にあるときには(S14:YES)、次のS16に行き、対象物10がカメラ撮影の対象エリア110にないときには(S14:NO)、S10に戻る。   Next, it is determined whether or not the target object 10 is in the target area 110 for camera shooting (S14). When the target object 10 is in the target area 110 for camera shooting (S14: YES), the process proceeds to the next S16. On the other hand, when the target object 10 is not in the target area 110 for camera shooting (S14: NO), the process returns to S10.

次に、画角幅W(図8Bの♯802)を計算する(S16)。   Next, the angle of view W (# 802 in FIG. 8B) is calculated (S16).

画角幅Wは、以下の(式2)で表される。
W=2R・tan(α/2) … (式2)
ここで、αは、画角(図8Cの♯905)であり、Rは、既出のカメラ300から対象物10までの距離である。
The angle-of-view width W is represented by the following (Equation 2).
W = 2R · tan (α / 2) (Equation 2)
Here, α is the angle of view (# 905 in FIG. 8C), and R is the distance from the already-existing camera 300 to the object 10.

画角幅Wが求まると、カメラ制御ライン70の位置が求まる。図7に示されように、カメラ制御ライン70の位置は、画角幅の端の位置から、左右W・γだけ離れた位置になる。ここで、γは、カメラ制御ラインの範囲率である(図8Cの♯903)。   When the angle of view W is determined, the position of the camera control line 70 is determined. As shown in FIG. 7, the position of the camera control line 70 is a position that is left and right W · γ away from the end of the angle of view width. Here, γ is the range ratio of the camera control line (# 903 in FIG. 8C).

そして、対象物10がカメラ制御ライン70の範囲を超えたか否かを判定し(S18)、対象物10がカメラ制御ライン70の範囲を超えたときには(S18:YES)、カメラ300に対してパン・チルト制御を行なって、対象物10が画角の中心になるように、カメラに対して、水平角と垂直角のパラメタを与えて動かすように指示を与える(S20、図6のCASE1)。   Then, it is determined whether or not the object 10 has exceeded the range of the camera control line 70 (S18). When the object 10 has exceeded the range of the camera control line 70 (S18: YES), the camera 300 is panned. Perform tilt control to instruct the camera to move by giving parameters of the horizontal angle and the vertical angle so that the object 10 is at the center of the angle of view (S20, CASE1 in FIG. 6).

次に、ズーム制御のために倍率計算をおこなう(S22)。
倍率z(図8Bの♯803)は、以下の(式3)で表される。
z=I/(2ftan(α/2))= R/f …(式3)
ここで、Iは、イメージセンサの横幅(図8Aの♯701)、fは、焦点距離(W端)(図8Aの♯703)である。
Next, magnification calculation is performed for zoom control (S22).
The magnification z (# 803 in FIG. 8B) is represented by the following (Equation 3).
z = I w / (2f w tan (α / 2)) = I w R / f w W ... ( Equation 3)
Here, I w is the width of the image sensor (♯701 in FIG. 8A), f w is a focal length (W end) (♯703 in Figure 8A).

そして、対象物10の倍率zが規定の範囲を超えたか否かを判定し(S24)、倍率zが規定の範囲を超えたときには(S24:YES)、カメラ300に対して、ズーム制御を行なって、倍率zのズームになるようにカメラを制御する(S26、図6のCASE2)。   Then, it is determined whether or not the magnification z of the object 10 exceeds a specified range (S24). When the magnification z exceeds the specified range (S24: YES), zoom control is performed on the camera 300. Then, the camera is controlled so as to achieve the zoom of the magnification z (S26, CASE2 in FIG. 6).

ここで、倍率zが規定の範囲を超えたときとは、倍率zと過去の倍率の差分(差の絶対値)が倍率限界範囲Δ(図8Cの♯904)以上になったときであると定義する。 Here, as when the magnification z is out of the range prescribed, it is when the magnification z and the difference between the past magnification (absolute value of the difference) is equal to or greater than the magnification limits delta z (♯904 in FIG. 8C) Is defined.

以上のように、本実施形態のカメラ制御システムでは、レーザセンサの周期で検出した位置情報に随時カメラ制御を行うのではなく、必要最低限のタイミングで、カメラを動かすべきタイミングでのみ、カメラを被写体に向くように制御している。   As described above, in the camera control system according to the present embodiment, the camera is not controlled at any time based on the position information detected in the cycle of the laser sensor. It is controlled to face the subject.

従来では、レーザセンサの周期でカメラ制御を行い、対象物を追尾して撮影した場合には、カメラ制御速度の方が遅く、制御コマンドの蓄積・遅延及び処理負荷が増大することになっていた。本実施形態のカメラ制御システムでは、このような事態を防止し、適切なタイミングで正確に対象物を追尾して画像ブレが少ない対象物を撮影することができる。   Conventionally, when camera control is performed at the cycle of the laser sensor and an object is tracked and photographed, the camera control speed is slower, and the accumulation and delay of control commands and the processing load increase. . In the camera control system according to the present embodiment, such a situation can be prevented, and the object can be accurately tracked at an appropriate timing to photograph the object with less image blur.

〔実施形態2〕
以下、本発明の第二の実施形態に係るカメラ制御システムを、図9を用いて説明する。
図9は、予測制御のための位置演算を説明する図である。
[Embodiment 2]
Hereinafter, a camera control system according to the second embodiment of the present invention will be described with reference to FIG.
FIG. 9 is a diagram illustrating position calculation for predictive control.

本実施形態では、対象物10の位置を検出するときに、対象物の移動予測を行なって、位置を決めるようにする。すなわち、第一の実施形態の図5のS14の位置情報計算処理において、図9に示されるように、過去の対象物の移動ベクトルから、t(図8Cの♯906)経過時の位置を算出する。 In the present embodiment, when detecting the position of the target object 10, the movement of the target object is predicted to determine the position. That is, in the position information calculation process of S14 in FIG. 5 of the first embodiment, as shown in FIG. 9, the position at the time of elapse of t f (♯906 in FIG. 8C) is determined from the past movement vector of the target object. calculate.

これにより、動きのある対象物10に対して、より正確に対象を追尾して撮影する制御を行うことができる。   Thereby, it is possible to perform control for more accurately tracking and photographing the moving object 10.

〔実施形態3〕
以下、本発明の第三の実施形態に係るカメラ制御システムを、図10を用いて説明する。図10は、カメラ制御システムの予測制御を説明する図である。
[Embodiment 3]
Hereinafter, a camera control system according to a third embodiment of the present invention will be described with reference to FIG. FIG. 10 is a diagram illustrating predictive control of the camera control system.

第二の実施形態に示したように、t経過時の対象物10に対して、パン・チルト、ズームの制御を実行したとする。ここで、図10の対象位置601が、カメラ制御指示時の対象物10であり、対象位置602がt経過時の位置であるとする(図10(a))。しかしながら、カメラに対して、パン・チルト、ズームの制御を実行した場合、カメラの性能によりコマンド〜旋回完了までの速度が異なる。その結果、カメラが旋回完了し、対象位置602に向けた場合に、対象物10は、カメラの制御にかかった時間だけさらに先を行っていることが考えられる。したがつて、本実施形態では、カメラ制御の時間も加味して、対象位置を計算する。 As it is shown in the second embodiment, with respect to the object 10 at the time lapse t f, and running the pan and tilt control of the zoom. Here, the target position 601 in FIG. 10 is a target 10 of camera control instruction, the target position 602 and the position at the time lapse t f (FIG. 10 (a)). However, when pan / tilt and zoom control is performed on the camera, the speed from the command to the completion of turning differs depending on the performance of the camera. As a result, when the camera has completed turning and turned to the target position 602, the target object 10 may be further ahead by the time required for controlling the camera. Therefore, in the present embodiment, the target position is calculated in consideration of the camera control time.

カメラ100のカメラを1度回転させるパン・チルト制御のために、tPT(図8Cの♯901)だけかかり、パン・チルト制御の初動時間として、TPT(図8Cの♯902)だけかかるとする。このときに、A度のパン・チルトを行うとすると、かかる時間は、A・tPT+TPTとなる。 It takes t PT (# 901 in FIG. 8C) for the pan / tilt control of rotating the camera of the camera 100 once, and it takes T PT (# 902 in FIG. 8C) as the initial movement time of the pan / tilt control. I do. At this time, assuming that the pan / tilt of the A degree is performed, the time required is A · t PT + T PT .

したがって、本実施形態では、t経過時の対象位置602に、さらに、A・tPT+TPT経過時の予測ベクトルにより、予測された位置を、対象物10の対処位置603として算出する。 Therefore, in the present embodiment, the predicted position is calculated as the target position 602 at the time of elapse of t f and the predicted vector at the time of E · t PT + T PT elapse as the coping position 603 of the object 10.

したがって、本実施形態のカメラ制御によれば、カメラ300のパン・チルト制御を考慮にいれたより正確な予測が可能になり、高精度で対象物を追尾して、カメラ300により撮影することが可能になる。   Therefore, according to the camera control of the present embodiment, more accurate prediction can be performed in consideration of the pan / tilt control of the camera 300, and the object can be tracked with high accuracy and photographed by the camera 300. become.

10…対象物、100…レーザセンサ、110…対象エリア、200…制御装置、300…カメラ、
202…CPU(Central Processing Unit)、204…メモリ、206…ネットワークI/F、208…表示I/F、210…入出力I/F、212…補助記憶I/F、220…表示装置、230…キーボード、232…マウス、250…HDD(Hard Disk Drive)、
402…センサ制御部、404…対象検出部、406…位置情報測定部、408…エリア判定部、410…カメラ制御部、420…カメラI/F部。
10 target object, 100 laser sensor, 110 target area, 200 control device, 300 camera
202 CPU (Central Processing Unit), 204 memory, 206 network I / F, 208 display I / F, 210 input / output I / F, 212 auxiliary storage I / F, 220 display device, 230 Keyboard, 232 mouse, 250 HDD (Hard Disk Drive),
Reference numeral 402: sensor control unit, 404: target detection unit, 406: position information measurement unit, 408: area determination unit, 410: camera control unit, 420: camera I / F unit.

Claims (6)

レーザセンサと、カメラと、制御装置が各々接続され、前記レーザセンサにより対象物の位置を検知し、前記カメラによりその対象物を撮影するカメラ制御システムであって、
一定時間毎に前記対象物の位置を検出する対象検出部と、
前記対象物の位置情報を測定する位置情報測定部と、
前記対象物のカメラの撮影上の画角幅と倍率を演算し、条件によってカメラ制御の契機を判定するカメラ画角・倍率判定部と、
前記カメラに対して、パン・チルト制御と、ズーム倍率の制御をおこなうカメラ動作指示部とを備え、
前記カメラ画角・倍率判定部は、前記対象物の位置と前記カメラの設置位置から、カメラと対象物の距離を演算し、前記カメラと対象物の距離とカメラの画角から、前記画角幅を演算し、
前記カメラ画角・倍率判定部は、前記対象物が、前記画角幅の端から所定の割合いで引かれるカメラ制御ラインを超えたか否かを判定し
前記カメラ動作指示部は、前記画角幅の端から所定の割合いで引かれるカメラ制御ラインを超えたときに、前記対象物が画角の中心となるように、前記カメラに対して、パン・チルト制御をおこない、
前記カメラ画角・倍率判定部は、前記カメラと対象物の距離と前記画角幅と前記カメラのイメージセンサの横幅と前記カメラの焦点距離から、倍率を演算し、
前記カメラ画角・倍率判定部は、前記対象物が、記憶されている過去の倍率と、現在の倍率が所定の差以上になるか否かを判定し
前記カメラ動作指示部は、前記対象物が、記憶されている過去の倍率と、現在の倍率が所定の差以上になるときに、前記カメラに対して、現在の倍率になるように、ズーム倍率の制御をおこなうことを特徴とするカメラ制御システム。
A laser control system, wherein a laser sensor, a camera, and a control device are respectively connected, the position of the target is detected by the laser sensor, and the target is photographed by the camera.
An object detection unit that detects the position of the object at regular intervals,
A position information measuring unit that measures position information of the object,
A camera angle-of-view / magnification determining unit that calculates a view angle width and a magnification in shooting of the camera of the target object and determines a trigger of camera control according to a condition .
For the camera, a pan / tilt control and a camera operation instructing unit that controls zoom magnification are provided.
The camera angle-of-view / magnification determining unit calculates the distance between the camera and the object from the position of the object and the installation position of the camera, and calculates the angle of view from the distance between the camera and the object and the angle of view of the camera. Calculate the width,
The camera angle-of-view / magnification determining unit determines whether the object has passed a camera control line drawn at a predetermined rate from an end of the angle-of-view width,
The camera operation instructing unit is configured to pan and move the camera so that the object becomes the center of the angle of view when a camera control line drawn at a predetermined ratio from the end of the angle of view is exceeded. Perform tilt control,
The camera angle-of-view / magnification determining unit calculates a magnification from the distance between the camera and the object, the angle-of-view width, the width of the image sensor of the camera, and the focal length of the camera,
The camera angle-of-view / magnification determining unit determines whether or not the object is a stored past magnification and a current magnification is equal to or greater than a predetermined difference,
The camera operation instructing unit is configured such that when the object has a stored past magnification and a current magnification that is equal to or more than a predetermined difference, the zoom magnification is set so that the object has the current magnification. A camera control system characterized by controlling the camera.
前記位置情報測定部は、過去の対象物の動きベクトルから、所定時間経過後の対処物の位置を予測し、前記対象物の位置を求めることを特徴とする請求項1記載のカメラ制御システム。   2. The camera control system according to claim 1, wherein the position information measuring unit estimates a position of the target object after a lapse of a predetermined time from a past motion vector of the target object, and obtains the position of the target object. 3. さらに、前記位置情報測定部は、前記カメラが、単位角度分パン・チルトをおこなう時間tPTと、カメラのパン・チルトをおこなうための初動時間TPTを保持し、A度のパン・チルトをおこなうときに、A・tPT+TPT分の時間を入れて、前記対象物の位置を求めることを特徴とする請求項2記載のカメラ制御システム。 Further, the position information measuring unit holds a time t PT at which the camera performs pan / tilt by a unit angle and an initial movement time T PT for performing pan / tilt of the camera, and sets the pan / tilt of A degree. 3. The camera control system according to claim 2, wherein the position of the object is obtained by inserting a time corresponding to AtPT + TPT . レーザセンサと、カメラと、制御装置が各々接続され、前記レーザセンサにより対象物の位置を検知し、前記カメラによりその対象物を撮影するカメラ制御システムのカメラ制御方法であって、
前記カメラ制御システムは、
一定時間毎に前記対象物の位置を検出する対象検出部と、
前記対象物の位置情報を測定する位置情報測定部と、
前記対象物のカメラの撮影上の画角幅と倍率を演算し、条件によってカメラ制御の契機を判定するカメラ画角・倍率判定部と、
前記カメラに対して、パン・チルト制御と、ズーム倍率の制御をおこなうカメラ動作指示部とを備え、
前記カメラ画角・倍率判定部が、前記対象物の位置と前記カメラの設置位置から、カメラと対象物の距離を演算し、前記カメラと対象物の距離とカメラの画角から、前記画角幅を演算するステップと、
前記カメラ画角・倍率判定部が、前記対象物が、前記画角幅の端から所定の割合いで引かれるカメラ制御ラインを超えたか否かを判定するステップと、
前記カメラ動作指示部が、前記対象物が、前記画角幅の端から所定の割合いで引かれるカメラ制御ラインを超えたときに、前記対象物が画角の中心となるように、前記カメラに対して、パン・チルト制御をおこなうステップと、
前記カメラ画角・倍率判定部が、前記カメラと対象物の距離と前記画角幅と前記カメラのイメージセンサの横幅と前記カメラの焦点距離から、倍率を演算するステップと、
前記カメラ画角・倍率判定部が、前記対象物が、記憶されている過去の倍率と、現在の倍率が所定の差以上になるか否かを判定するステップと、
前記カメラ動作指示部が、前記対象物が、記憶されている過去の倍率と、現在の倍率が所定の差以上になるときに、前記カメラに対して、現在の倍率になるように、ズーム倍率の制御をおこなうステップとを有することを特徴とするカメラ制御方法。
A laser control method of a camera control system, wherein a laser sensor, a camera, and a control device are connected to each other, the position of the target is detected by the laser sensor, and the target is photographed by the camera.
The camera control system includes:
An object detection unit that detects the position of the object at regular intervals,
A position information measuring unit that measures position information of the object,
A camera angle-of-view / magnification determining unit that calculates an angle-of-view width and magnification in shooting of the object camera, and determines a trigger of camera control according to a condition .
For the camera, a pan / tilt control and a camera operation instructing unit that controls zoom magnification are provided.
The camera angle-of-view / magnification determining unit calculates the distance between the camera and the object from the position of the object and the installation position of the camera, and calculates the angle of view from the distance between the camera and the object and the angle of view of the camera. Calculating a width;
The camera angle-of-view / magnification determining unit determines whether or not the object has passed a camera control line drawn at a predetermined ratio from an end of the angle-of-view width,
The camera operation instructing unit is configured so that, when the object exceeds a camera control line drawn at a predetermined ratio from an end of the angle of view, the object is at the center of the angle of view. On the other hand, a step of performing pan / tilt control,
The camera angle of view / magnification determining unit calculates a magnification from the distance between the camera and the object, the angle of view, the width of the image sensor of the camera, and the focal length of the camera,
Wherein the camera angle of view / magnification determining unit determines whether or not the target object has a stored past magnification and a current magnification is equal to or greater than a predetermined difference;
The camera operation instructing unit sets a zoom magnification to the camera so that when the object has a stored past magnification and a current magnification is equal to or greater than a predetermined difference, the camera has a current magnification. Performing a control of the camera.
前記位置情報測定部は、過去の対象物の動きベクトルから、所定時間経過後の対処物の位置を予測し、前記対象物の位置を求めることを特徴とする請求項4記載のカメラ制御方法。   The camera control method according to claim 4, wherein the position information measurement unit estimates a position of the target object after a lapse of a predetermined time from a past motion vector of the target object, and obtains the position of the target object. さらに、前記位置情報測定部は、前記カメラが、単位角度分パン・チルトをおこなう時間tPTと、カメラのパン・チルトをおこなうための初動時間TPTを保持し、A度のパン・チルトをおこなうときに、A・tPT+TPT分の時間を入れて、前記対象物の位置を求めることを特徴とする請求項5記載のカメラ制御方法。 Further, the position information measuring unit holds a time t PT at which the camera performs pan / tilt by a unit angle and an initial movement time T PT for performing pan / tilt of the camera, and sets the pan / tilt of A degree. 6. The camera control method according to claim 5, wherein at the time of performing, the position of the object is obtained by inserting a time of AttPT + TPT .
JP2015175059A 2015-09-04 2015-09-04 Camera control system and camera control method Active JP6626669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015175059A JP6626669B2 (en) 2015-09-04 2015-09-04 Camera control system and camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015175059A JP6626669B2 (en) 2015-09-04 2015-09-04 Camera control system and camera control method

Publications (2)

Publication Number Publication Date
JP2017050829A JP2017050829A (en) 2017-03-09
JP6626669B2 true JP6626669B2 (en) 2019-12-25

Family

ID=58279666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015175059A Active JP6626669B2 (en) 2015-09-04 2015-09-04 Camera control system and camera control method

Country Status (1)

Country Link
JP (1) JP6626669B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110618569A (en) * 2019-09-23 2019-12-27 天津天地基业科技有限公司 Method for automatic zoom linkage of laser light spots

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108632567B (en) * 2017-03-16 2020-07-28 杭州海康威视数字技术股份有限公司 Cloud deck control method, device and system
JP2019029886A (en) * 2017-08-01 2019-02-21 日本写真判定株式会社 Mobile object photographing system
JP6910913B2 (en) * 2017-09-29 2021-07-28 セコム株式会社 Monitoring device
WO2019093297A1 (en) * 2017-11-13 2019-05-16 日本電気株式会社 Information processing device, control method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3095829B2 (en) * 1991-10-18 2000-10-10 オリンパス光学工業株式会社 Camera display device
JPH06236209A (en) * 1993-02-10 1994-08-23 Nousakumotsu Seiiku Kanri Syst Kenkyusho:Kk Automatic tracking position measuring instrument for mobile object
JPH07181365A (en) * 1993-12-22 1995-07-21 Olympus Optical Co Ltd Zoom lens camera having range finding device
JP4699040B2 (en) * 2005-02-15 2011-06-08 パナソニック株式会社 Automatic tracking control device, automatic tracking control method, program, and automatic tracking system
JP2010147715A (en) * 2008-12-17 2010-07-01 Hoya Corp Imager
JP2011124614A (en) * 2009-12-08 2011-06-23 Panasonic Corp Subject tracking device and subject tracking method
JP5539045B2 (en) * 2010-06-10 2014-07-02 キヤノン株式会社 Imaging apparatus, control method therefor, and storage medium
JP2012198802A (en) * 2011-03-22 2012-10-18 Denso Corp Intrusion object detection system
CN104580872A (en) * 2013-10-20 2015-04-29 郁杰夫 Automatic-positioning tracking photography system and automatic-positioning tracking photography method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110618569A (en) * 2019-09-23 2019-12-27 天津天地基业科技有限公司 Method for automatic zoom linkage of laser light spots

Also Published As

Publication number Publication date
JP2017050829A (en) 2017-03-09

Similar Documents

Publication Publication Date Title
JP6626669B2 (en) Camera control system and camera control method
US20200208970A1 (en) Method and device for movable object distance detection, and aerial vehicle
US10979614B2 (en) Control apparatus, method of controlling imaging device, and non-transitory computer-readable storage medium that control an imaging device for tracking a tracking target
US8170277B2 (en) Automatic tracking apparatus and automatic tracking method
US20070236570A1 (en) Method and apparatus for providing motion control signals between a fixed camera and a ptz camera
JP6723208B2 (en) Improved direction control of surveillance cameras
US9091904B2 (en) Camera device with rotary base
KR101187901B1 (en) System for intelligent surveillance and method for controlling thereof
US9905096B2 (en) Apparatus and method of monitoring moving objects
JP6302302B2 (en) Camera control device
JP2018004918A5 (en)
JP2019140990A (en) Target tracking apparatus and target tracking system
US20230237890A1 (en) Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method
JP6898826B2 (en) Monitoring device
KR20230115231A (en) Intruder location-based dynamic virtual fence configuration and multiple image sensor device operation method
JP6898825B2 (en) Monitoring device
KR101164410B1 (en) Invader trace monitering system and tracking method thereof
KR101788973B1 (en) Apparatus and method for controlling of lacation tracing camera
JP6910913B2 (en) Monitoring device
JP7204356B2 (en) monitoring device
JP7049858B2 (en) Moving object tracking device and its program
KR20200079963A (en) System and method for detecting position of electric pole and method thereof
JP2023115703A (en) Video monitoring device, video monitoring method and program
KR102632655B1 (en) Video Analyzing Apparatus and Method for Determining Whether Target Vehicle Is Driving or Stopping for Illegal Parking Enforcement, and Illegal Parking Enforcement System
KR102025294B1 (en) Apparatus and method for detecting target tracking failure on wide view using target tracking trajectory on local view

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R150 Certificate of patent or registration of utility model

Ref document number: 6626669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250