JP2020034592A - Control unit, imaging apparatus, control method for imaging apparatus, and program - Google Patents

Control unit, imaging apparatus, control method for imaging apparatus, and program Download PDF

Info

Publication number
JP2020034592A
JP2020034592A JP2018158188A JP2018158188A JP2020034592A JP 2020034592 A JP2020034592 A JP 2020034592A JP 2018158188 A JP2018158188 A JP 2018158188A JP 2018158188 A JP2018158188 A JP 2018158188A JP 2020034592 A JP2020034592 A JP 2020034592A
Authority
JP
Japan
Prior art keywords
control
imaging
reference position
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018158188A
Other languages
Japanese (ja)
Inventor
元 諸田
Hajime Morota
元 諸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018158188A priority Critical patent/JP2020034592A/en
Publication of JP2020034592A publication Critical patent/JP2020034592A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a control unit capable of swiftly controlling a focus depending on an object to be imaged.SOLUTION: A control unit includes: setting means for setting a first reference position that, when the detection means outside the control unit detects an object, the imaging means uses the same as the reference position of the autofocus control; and control means configured to control imaging means so as to, when detection means detects the object, control the autofocus on the basis of the first reference position, and when the detection means does not detect any object, control the autofocus on the basis of a second reference position.SELECTED DRAWING: Figure 7

Description

本発明は、制御装置、撮像装置、撮像装置の制御方法およびプログラムに関する。   The present invention relates to a control device, an imaging device, a control method of the imaging device, and a program.

従来、ネットワークや専用線を介して、遠隔操作によりカメラを制御し、映像を監視できる監視カメラが知られている。監視カメラのユーザは、注目する対象物が登場した際に、監視カメラを制御して対象物が画角内に映るようにカメラを駆動させることがある。
また、注目対象物が登場した際に自動的に特定の方向(プリセット位置)にカメラを駆動するよう事前に設定をすることがある。施設内の重要な場所に人感センサ等の検知センサが設置してある場合、検知センサが人物の通過を検知し、その検知結果を監視カメラに通知する。監視カメラは、検知された対象物を撮影するために監視カメラの雲台やレンズをプリセット位置へ駆動して対象物を撮影する。
2. Description of the Related Art Conventionally, surveillance cameras capable of remotely controlling a camera via a network or a dedicated line and monitoring an image have been known. The user of the surveillance camera may control the surveillance camera and drive the camera so that the target object appears within the angle of view when the target object appears.
Further, there is a case where a setting is made in advance so that the camera is automatically driven in a specific direction (preset position) when the target object appears. When a detection sensor such as a human sensor is installed at an important place in the facility, the detection sensor detects the passage of a person and notifies the monitoring camera of the detection result. The surveillance camera drives the camera platform and lens to a preset position to photograph the detected object in order to photograph the object.

ここで、カメラがオートフォーカスを実施している場合、駆動前後の照度条件等の影響によっては焦点合わせを素早く行うことが難しい場合がある。一方で、特定のプリセット位置に適したフォーカスをマニュアル設定で固定したとしても、対象物を検知していない場合には、画像全体として不適当な位置に焦点が合っている可能性がある。   Here, when the camera is performing autofocus, it may be difficult to quickly perform focusing depending on the influence of illuminance conditions before and after driving. On the other hand, even if the focus suitable for a specific preset position is fixed by manual setting, if an object is not detected, there is a possibility that an inappropriate position is focused on the entire image.

特許文献1に記載の従来技術では、発信者が音声信号と映像信号を受信者に送信し、受信者の音声信号を発信者に送信する方法が開示されている。さらに、発信者の位置データに基づき撮影機の撮影状態を制御する方法が示されている。特許文献2に記載の従来技術では、第1の撮像装置の複数の位置情報のいずれかを優先順位に従って決定し、それに基づき第2の撮像装置の視点を変更する方法が開示されている。   The prior art described in Patent Document 1 discloses a method in which a sender transmits an audio signal and a video signal to a receiver, and the receiver transmits an audio signal of the receiver to the sender. Further, a method for controlling a shooting state of a shooting machine based on position data of a caller is shown. The prior art disclosed in Patent Document 2 discloses a method in which one of a plurality of pieces of position information of a first imaging device is determined according to a priority order, and the viewpoint of the second imaging device is changed based on the priority information.

WO96/01539号公報WO96 / 01539 特開2017―192104号公報JP, 2017-192104, A

特許文献1に記載の従来技術では、音声信号を発信する発信者の位置データに基づき撮影機の撮像状態の制御を行っているため、音声信号を受信者に発信していない対象物に対しての撮影機の制御が考慮されていない。また、発信者の位置データが不明であれば、位置データを使用して撮影機を制御することができない。
また、特許文献2に記載の従来技術では、1つの撮像装置の視点を変更するための別の撮像装置が必要となるため、別の撮像装置がない場合は視点変更ができない。また、複数の撮像装置が必要となるためシステムが高価となってしまう。さらに、対象物を検知した際にプリセット位置へ画角を移動しても、撮像すべき対象物にすぐにフォーカスが合わずに取り逃がしてしまうおそれがある。
In the prior art described in Patent Document 1, since the imaging state of the photographing device is controlled based on the position data of the sender that transmits the audio signal, an object that does not transmit the audio signal to the receiver is controlled. Is not considered. If the position data of the caller is unknown, the photographing device cannot be controlled using the position data.
Further, in the related art described in Patent Literature 2, since another imaging device for changing the viewpoint of one imaging device is required, the viewpoint cannot be changed without another imaging device. Further, since a plurality of imaging devices are required, the system becomes expensive. Furthermore, even if the angle of view is moved to a preset position when an object is detected, the object to be imaged may be missed without being immediately focused.

本発明は上述の課題に鑑みてなされたものであり、撮像すべき対象物に応じて迅速にフォーカスを制御することの可能な制御装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and has as its object to provide a control device capable of quickly controlling the focus according to an object to be imaged.

上記の課題を解決するため、本発明に係る制御装置のある態様によれば、制御装置であって、前記制御装置の外部の検知手段が対象物を検知した際に撮像手段がオートフォーカスの制御の基準位置とすべき第1の基準位置を設定する設定手段と、前記検知手段が前記対象物を検知している場合に、前記第1の基準位置に基づいて前記オートフォーカスの制御を行い、前記検知手段が前記対象物を検知していない場合に、第2の基準位置に基づいて前記オートフォーカスの制御を行うよう、前記撮像手段を制御する制御手段と、を備える制御装置が提供される。   In order to solve the above problem, according to an aspect of the control device according to the present invention, there is provided a control device, wherein the imaging unit controls the auto focus when a detection unit outside the control unit detects an object. Setting means for setting a first reference position to be the reference position, and performing the autofocus control based on the first reference position when the detection means is detecting the object, A control unit that controls the imaging unit so as to perform the autofocus control based on a second reference position when the detection unit does not detect the target object. .

本発明によれば、撮像すべき対象物に応じて迅速にフォーカスを制御することができる。   ADVANTAGE OF THE INVENTION According to this invention, focus can be controlled quickly according to the object to be imaged.

実施形態1の監視システムの構成例を示すブロック図FIG. 1 is a block diagram illustrating a configuration example of a monitoring system according to a first embodiment. 撮像装置の機能ブロック図及びシステム構成図Functional block diagram and system configuration diagram of imaging apparatus クライアント装置の構成例を示すブロック図Block diagram showing a configuration example of a client device 検知センサの構成例を示すブロック図Block diagram showing a configuration example of a detection sensor オートフォーカス開始基準位置を設定する表示画面の例を示す図Diagram showing an example of a display screen for setting an autofocus start reference position オートフォーカス開始基準位置を設定する処理の例を示すフローチャートFlowchart showing an example of processing for setting an autofocus start reference position オートフォーカス制御の例を示すフローチャートFlowchart showing an example of autofocus control オートフォーカス制御の例を示すフローチャートFlowchart showing an example of autofocus control

以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する各実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に必ずしも限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成および処理については、同じ符号を付して説明する。   Hereinafter, an embodiment for carrying out the present invention will be described in detail with reference to the accompanying drawings. Each embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the apparatus to which the present invention is applied and various conditions. However, the present invention is not necessarily limited to the embodiment. Further, not all combinations of the features described in the present embodiment are necessarily essential to the solution of the present invention. The same configuration and processing will be described with the same reference numerals.

実施形態1
(監視システムの構成)
図1は、実施形態1に係る監視システムの構成例を示している。
この監視システムは、人等の被写体を撮像する撮像装置1と、撮像装置1の動作を制御するクライアント装置2と、検知エリア内の人等の被写体を検知する検知センサ3とを備えている。
撮像装置1とクライアント装置2は、ネットワーク4を介して相互に通信可能な状態に接続されている。クライアント装置2は、撮像装置1に対して、各種の制御コマンドを送信する。この制御コマンドには、例えば、撮影パラメータに関する設定、撮像装置1を駆動する駆動部に対するパン・チルト・ローテーション・ズーム・フォーカス等の駆動指示、その他カメラの制御等を行うためのコマンド等が含まれる。また、制御コマンドを受信した撮像装置1は、受信した制御コマンドに対するレスポンスをクライアント装置2に送信する。
Embodiment 1
(Configuration of monitoring system)
FIG. 1 illustrates a configuration example of a monitoring system according to the first embodiment.
The monitoring system includes an imaging device 1 that images a subject such as a person, a client device 2 that controls the operation of the imaging device 1, and a detection sensor 3 that detects a subject such as a person in a detection area.
The imaging device 1 and the client device 2 are connected via a network 4 so that they can communicate with each other. The client device 2 transmits various control commands to the imaging device 1. The control commands include, for example, settings relating to photographing parameters, drive instructions such as pan / tilt / rotation / zoom / focus for a drive unit that drives the imaging apparatus 1, and other commands for controlling the camera and the like. . Further, the imaging device 1 having received the control command transmits a response to the received control command to the client device 2.

ネットワーク4は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成されるものとする。しかしながら、本実施形態においては、撮像装置1とクライアント装置2との間の通信を行うことができるものであれば、その通信規格、規模、構成を問わない。   The network 4 includes a plurality of routers, switches, cables, and the like that satisfy a communication standard such as Ethernet (registered trademark). However, in the present embodiment, any communication standard, scale, and configuration can be used as long as communication between the imaging device 1 and the client device 2 can be performed.

撮像装置1と検知センサ3は、無線または有線のネットワーク5を介して相互に通信可能な状態に接続されている。なお、撮像装置1と検知センサ3との間で通信を行うことができれば、ネットワーク5は、通信規格、規模、構成を問わない。また、検知センサ3は、クライアント装置2あるいはネットワーク4を介して撮像装置1と通信してもよい。検知センサ3は、撮像装置1に対して、各種の状態通知コマンドを送信する。この状態通知コマンドは、例えば、検知対象物の発生、検知対象物の消失、検知対象物の状態変化等の通知を行うためのコマンド等が含まれる。また、検知センサ3は、必要に応じて、撮像装置1と検知センサ3の間で通信を確立・維持・終了するための制御コマンドの送受信を行う。なお、検知センサ3は複数存在してもよい。撮像装置1と検知センサ3との位置関係は、検知センサ3が検知する対象物が、撮像装置1の画角に含まれるように検知センサ3が設置してあればよい。   The imaging device 1 and the detection sensor 3 are connected to be able to communicate with each other via a wireless or wired network 5. As long as communication can be performed between the imaging device 1 and the detection sensor 3, the network 5 may be of any communication standard, scale, and configuration. Further, the detection sensor 3 may communicate with the imaging device 1 via the client device 2 or the network 4. The detection sensor 3 transmits various status notification commands to the imaging device 1. The state notification command includes, for example, a command for notifying the occurrence of the detection target, the disappearance of the detection target, a change in the state of the detection target, and the like. Further, the detection sensor 3 transmits and receives a control command for establishing, maintaining, and ending communication between the imaging device 1 and the detection sensor 3 as necessary. Note that a plurality of detection sensors 3 may exist. The positional relationship between the imaging device 1 and the detection sensor 3 may be such that the detection sensor 3 is installed so that the object detected by the detection sensor 3 is included in the angle of view of the imaging device 1.

なお、本実施形態における撮像装置1は、クライアント装置2および検知センサ3と通信を行う通信装置の一例であり、例えば動画像を撮像する監視カメラである。より詳細には、撮像装置1は、例えば監視に用いられるネットワークカメラであるものとする。また、本実施形態におけるクライアント装置2は、PC(パーソナルコンピュータ)等の外部の情報処理装置の一例である。また、本実施形態における検知センサ3は、撮像装置1が撮像の対象とする対象物(被写体)の発生または対象物の状態変化を検知するセンサであり、例えば人感センサやドア・窓開閉検知センサ等である。   Note that the imaging device 1 in the present embodiment is an example of a communication device that communicates with the client device 2 and the detection sensor 3, and is, for example, a monitoring camera that captures a moving image. More specifically, the imaging device 1 is, for example, a network camera used for monitoring. The client device 2 according to the present embodiment is an example of an external information processing device such as a PC (personal computer). The detection sensor 3 according to the present embodiment is a sensor that detects the occurrence of an object (subject) to be imaged by the imaging device 1 or a change in the state of the object, such as a human sensor or door / window opening / closing detection. Sensors.

この撮像装置1は、図2に示すように、撮像装置1の全体の制御を行う制御部11と、データ等を格納する記憶部12と、撮像を行う撮像部13と、撮像したデータを圧縮符号化する圧縮符号化部14と、通信部15と、撮像制御部16とを備えている。制御部11〜撮像制御部16は、バス17を介して接続されている。   As shown in FIG. 2, the imaging device 1 includes a control unit 11 that controls the entire imaging device 1, a storage unit 12 that stores data and the like, an imaging unit 13 that performs imaging, and compression of the captured data. The image processing apparatus includes a compression encoding unit 14 for encoding, a communication unit 15, and an imaging control unit 16. The control units 11 to 16 are connected via a bus 17.

制御部11は、例えばCPU(Central Prosessing Unit)で構成される。記憶部12は、主に制御部11が実行するプログラム格納領域、プログラム実行中のワーク領域、オートフォーカス開始基準位置等の設定情報格納領域、後述する撮像部13が生成する画像データの格納領域等、様々なデータの格納領域として使用される。   The control unit 11 is configured by, for example, a CPU (Central Processing Unit). The storage unit 12 mainly stores a program storage area to be executed by the control unit 11, a work area during execution of the program, a setting information storage area such as an autofocus start reference position, and a storage area for image data generated by the imaging unit 13 described later. , Are used as storage areas for various data.

撮像部13は、撮像装置1の撮像光学系により結像された被写体の像を撮像して取得したアナログ信号をデジタルデータに変換し、順次、撮像画像として記憶部12に格納する。撮像画像が記憶部12に格納されたとき、制御部11は撮像部13から画像取得イベントを受信する。圧縮符号化部14は、撮像部13が格納した撮像画像に対してJPEG(Jpint Picture Expert Group)あるいはH.264等の形式に基づき圧縮符号化処理を行うことで画像データを生成し、記憶部12に格納する。   The imaging unit 13 converts an analog signal obtained by capturing an image of a subject formed by the imaging optical system of the imaging device 1 into digital data, and sequentially stores the digital signal in the storage unit 12 as a captured image. When the captured image is stored in the storage unit 12, the control unit 11 receives an image acquisition event from the imaging unit 13. The compression encoding unit 14 applies a JPEG (Jpoint Picture Expert Group) or H.264 to the captured image stored by the imaging unit 13. Image data is generated by performing a compression encoding process based on a format such as H.264 and stored in the storage unit 12.

通信部15は、制御コマンドを外部装置から受信する際、制御コマンドに対するレスポンスを外部装置に送信する際等に使用される。外部の装置からコマンドを受信する際に、制御部11は、通信部15を介してコマンド受信のイベントを受信する。また、通信部15は、圧縮符号化部14により圧縮符号化された画像データを、順次、記憶部12から読み出してクライアント装置に映像ストリームとして送信すうる際にも使用される。
撮像制御部16は、制御部11が指示するパン・チルト・ローテーション・ズームあるいはフォーカスの値に従い、駆動部をパン駆動、チルト駆動、ズーム駆動、ローテーション駆動、あるいはフォーカス駆動させて撮像部13の画角を変更させるために使用される。なお、撮像制御部16は、撮像部13で撮像した画像のコントラスト(空間周波数)の値を評価して合焦面を探索するコントラスト検出方式のオートフォーカス機能を有するものとする。
The communication unit 15 is used when receiving a control command from an external device, transmitting a response to the control command to the external device, or the like. When receiving a command from an external device, the control unit 11 receives a command reception event via the communication unit 15. The communication unit 15 is also used when the image data compressed and encoded by the compression encoding unit 14 can be sequentially read from the storage unit 12 and transmitted to the client device as a video stream.
The imaging control unit 16 controls the driving unit to perform pan driving, tilt driving, zoom driving, rotation driving, or focusing driving in accordance with the pan / tilt / rotation / zoom or focus value specified by the control unit 11, and performs image driving of the imaging unit 13. Used to change the corner. Note that the imaging control unit 16 has an autofocus function of a contrast detection method that evaluates the value of the contrast (spatial frequency) of the image captured by the imaging unit 13 and searches for a focal plane.

図3は、クライアント装置2の内部構成を示す図である。
このクライアント装置2は、クライアント装置2の全体の制御を行う制御部21と、データ等を格納する22と、画像等の情報を表示する表示部23と、ユーザの指示等を入力する入力部24と、画像を生成する復号部25と、通信を行う通信部26とを備えている。制御部21〜通信部26は、バス27を介して接続されている。
FIG. 3 is a diagram illustrating an internal configuration of the client device 2.
The client device 2 includes a control unit 21 that controls the entire client device 2, a storage unit 22 that stores data and the like, a display unit 23 that displays information such as images, and an input unit 24 that inputs user instructions and the like. , A decoding unit 25 for generating an image, and a communication unit 26 for performing communication. The control unit 21 to the communication unit 26 are connected via a bus 27.

制御部21は、例えばCPUで構成される。
記憶部22は、主に制御部21が実行するプログラム格納領域、プログラム実行中のワーク領域等、様々なデータの格納領域として使用される。
表示部23は、例えばLCD、有機ELディスプレイ等で構成され、クライアント装置2のユーザに対して、後述のオートフォーカス開始基準位置設定画面を含む様々な設定画面や、撮像装置1から受信する映像のビューワ、各種メッセージ等を表示する。
入力部24は、例えばボタン、十字キー、タッチパネル、マウス等で構成され、ユーザによる画面操作の指示を制御部21に入力する。
The control unit 21 is configured by, for example, a CPU.
The storage unit 22 is mainly used as a storage area for various data such as a program storage area executed by the control unit 21 and a work area during execution of the program.
The display unit 23 includes, for example, an LCD, an organic EL display, and the like. Displays a viewer, various messages, etc.
The input unit 24 includes, for example, a button, a cross key, a touch panel, a mouse, and the like, and inputs a user's screen operation instruction to the control unit 21.

復号部25は、通信部26を介して受信された圧縮符号化されている画像データをJPEG,あるいはH.264等の形式に基づいて復号化し、記憶部22に展開する。
通信部26は、撮影パラメータに関する設定、撮像装置1の撮像制御部16に対するパン・チルト・ローテーション・ズーム・フォーカス等の駆動指示、その他カメラ制御を含む制御コマンドを撮像装置1に対して送信する際に使用される。また、通信部26は、制御コマンドに対するレスポンスや、撮像装置1から映像ストリーム(画像データ)を受信する際に使用される。
The decoding unit 25 converts the compression-encoded image data received via the communication unit 26 into JPEG or H.264. The data is decrypted based on a format such as H.264 and expanded in the storage unit 22.
The communication unit 26 transmits to the imaging device 1 settings related to imaging parameters, driving instructions for the imaging control unit 16 of the imaging device 1 such as pan, tilt, rotation, zoom, and focus, and other control commands including camera control. Used for The communication unit 26 is used when receiving a response to a control command or a video stream (image data) from the imaging device 1.

図4は、検知センサ3の内部構成を示す図である。
この検知センサ3は、検知センサ3の全体の制御を行う制御部31と、データ等を格納する32と、物体を検知する検知部33と、通信を行う通信部34とを備えている。制御部31〜通信部34は、バス35を介して接続されている。
FIG. 4 is a diagram illustrating an internal configuration of the detection sensor 3.
The detection sensor 3 includes a control unit 31 that performs overall control of the detection sensor 3, a storage unit 32 that stores data and the like, a detection unit 33 that detects an object, and a communication unit 34 that performs communication. The control unit 31 to the communication unit 34 are connected via a bus 35.

制御部31は、例えばCPUで構成される。記憶部32は、主に制御部31が実行するプログラム格納領域、プログラム実行中のワーク領域等、様々なデータの格納領域として使用される。検知部33は、例えば検知センサ3が人感センサであれば赤外線センサ、ドア・窓センサであれば磁力センサ等で構成され、対象物の発生・消失や対象物の状態変化等を検知し、検知結果を制御部31に通知する。
通信部34は、検知対象物の発生・消失や対象物の状態変化等の検知結果、及び撮像装置1との通信確立・維持・終了等を含む制御コマンドを撮像装置1に対して送信する。また、通信部34は、制御コマンドに対するレスポンスを撮像装置1から受信する際に使用される。
The control unit 31 is constituted by, for example, a CPU. The storage unit 32 is used as a storage area for various data such as a program storage area mainly executed by the control unit 31 and a work area during program execution. The detection unit 33 includes, for example, an infrared sensor if the detection sensor 3 is a human sensor, and a magnetic sensor if the door / window sensor is used, and detects the occurrence or disappearance of an object, a change in the state of the object, and the like. The detection result is notified to the control unit 31.
The communication unit 34 transmits, to the imaging device 1, detection results such as occurrence / disappearance of the detection target object and a change in the state of the target object, and control commands including communication establishment, maintenance, and termination with the imaging device 1. The communication unit 34 is used when receiving a response to the control command from the imaging device 1.

以上、撮像装置1、クライアント装置2及び検知センサ3の内部構成について説明したが、図2〜図4に示す処理ブロックは、本発明における撮像装置1、クライアント装置2、検知センサ3の好適な一例を説明したものであり、構成等は、この限りではない。例えば、上述の構成に加えて音声入力部、音声出力部、画像解析処理部等を備える等、本発明の思想の範囲内で、種々の変形及び変更が可能である。
また、図2〜図4に示す構成の少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA(Field Programmable Gate Array)上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
Although the internal configurations of the imaging device 1, the client device 2, and the detection sensor 3 have been described above, the processing blocks illustrated in FIGS. 2 to 4 are preferable examples of the imaging device 1, the client device 2, and the detection sensor 3 in the present invention. And the configuration is not limited to this. For example, various modifications and changes are possible within the scope of the concept of the present invention, such as including an audio input unit, an audio output unit, and an image analysis processing unit in addition to the above-described configuration.
Further, at least a part of the configuration illustrated in FIGS. 2 to 4 may be realized by hardware. In the case of realization by hardware, for example, a dedicated circuit may be automatically generated on a FPGA (Field Programmable Gate Array) from a program for realizing each step by using a predetermined compiler. Further, a Gate Array circuit may be formed in the same manner as the FPGA, and may be realized as hardware. Further, it may be realized by an ASIC (Application Specific Integrated Circuit).

図5は、クライアント装置2の表示部23に表示される表示画面の一例を示す図である。
この表示画面40は、画像を表示する表示領域41、ユーザからの指示を入力するボタン42,距離を示す情報等を入力する入力ボックス43を含んでいる。
表示領域41は、撮像装置1から受信した画像データに応じた画像が表示される表示領域である。ボタン42は、撮像装置1に対するプリセット位置への駆動指示に用いられるボタンである。ボタン42は、複数のプリセット位置を選択する複数のボタン42a、42b、42cを有している。いずれかのボタン42a〜42cが指示されると、クライアント装置2は、この指示に応じたプリセット位置に画角を移動させる駆動指示を撮像装置1に送信する。撮像装置1の通信部15がこの駆動指示を受信すると、撮像制御部16は、駆動部によるパン・チルト・ローテーション・ズームの駆動(PTRZ駆動)の制御を行うことで、撮像位置(画角)を指定されたプリセット位置に移動させる。プリセット位置は、例えば、予めクライアント装置2において入力されたユーザの指示に応じて、撮像装置1の記憶部12に記憶しておく。なお、入力ボックス43は、撮像装置1からピント面までの距離を示す情報(距離情報)を入力するために用いられるボックスである。この入力ボックス43は、距離を入力する入力領域43a、保存(Save)を指示するボタン43b、キャンセル(Cancel)を指示するボタン43cを含んでいる。
ユーザは、予め入力部24を操作して、入力ボックス43中の入力領域43aに、検知センサ3が検知した際の位置(プリセット位置)における撮像装置1のピント面までの距離を示す情報(距離情報)を入力しておく。例えば、ユーザは、検知センサ3と撮像装置1との距離をピント面までの距離情報として入力する。あるいは、測距装置や他の方法を用いてピント面までの距離を算出し、距離情報として入力してもよい。
FIG. 5 is a diagram illustrating an example of a display screen displayed on the display unit 23 of the client device 2.
The display screen 40 includes a display area 41 for displaying an image, a button 42 for inputting an instruction from a user, and an input box 43 for inputting information indicating a distance and the like.
The display area 41 is a display area where an image corresponding to the image data received from the imaging device 1 is displayed. The button 42 is a button used to instruct the imaging device 1 to drive to a preset position. The button 42 has a plurality of buttons 42a, 42b, 42c for selecting a plurality of preset positions. When any of the buttons 42a to 42c is instructed, the client device 2 transmits to the imaging device 1 a drive instruction to move the angle of view to a preset position according to the instruction. When the communication unit 15 of the imaging apparatus 1 receives the driving instruction, the imaging control unit 16 controls the driving of the pan, tilt, rotation, and zoom (PTRZ driving) by the driving unit, thereby obtaining the imaging position (angle of view). To the specified preset position. The preset position is stored in the storage unit 12 of the imaging device 1 in accordance with, for example, a user's instruction input in the client device 2 in advance. The input box 43 is a box used to input information (distance information) indicating the distance from the imaging device 1 to the focus plane. The input box 43 includes an input area 43a for inputting a distance, a button 43b for instructing save (Save), and a button 43c for instructing cancel (Cancel).
The user operates the input unit 24 in advance, and stores information (distance to the focus plane of the imaging apparatus 1 at the position (preset position) when the detection sensor 3 detects the position in the input area 43a in the input box 43. Information). For example, the user inputs the distance between the detection sensor 3 and the imaging device 1 as distance information to the focus plane. Alternatively, the distance to the focus plane may be calculated using a distance measuring device or another method, and may be input as distance information.

(オートフォーカス開始基準位置の設定)
図6は、本実施形態におけるオートフォーカス開始基準位置を設定する処理を示すフローチャートである。なお、このフローチャートの処理は、撮像制御部16が実行する。
まず、ステップS1において、ユーザは、クライアント装置2の表示画面40の表示領域41を見ながら入力部24を操作し、表示領域41中に検知対象物の画像41aが表示させるように、撮像装置1のパン・チルト・ローテーション・ズームを変更する。あるいは、表示領域41中に検知センサ3の画像41bが表示されるように、撮像装置1のパン・チルト・ローテーション・ズームを変更するようにしてもよい。すなわち、ユーザは入力部24を介して検知対象物等を含む画角に撮像装置1を駆動させるための駆動指示を入力する。制御部21は、入力部24を介して入力されたパン・チルト・ローテーション・ズームの変更指示に応じて、パン・チルト・ローテーション・ズームの駆動指示(PTRZ駆動指示)を生成し、通信部26を介して撮像装置1に送信する。通信部15を介して、PTRZ駆動指示を受信すると、制御部11は、撮像制御部16によってパン・チルト・ローテーション・ズームの駆動(PTRZ駆動)を制御させる。これにより、撮像装置1の画角がユーザが指示した画角、すなわち検知対象物等を含む画角に変更される。
(Setting of auto focus start reference position)
FIG. 6 is a flowchart illustrating a process for setting the autofocus start reference position in the present embodiment. Note that the process of this flowchart is executed by the imaging control unit 16.
First, in step S <b> 1, the user operates the input unit 24 while viewing the display area 41 of the display screen 40 of the client device 2, so that the image 41 a of the detection target is displayed in the display area 41. Change pan / tilt / rotation / zoom of. Alternatively, the pan / tilt / rotation / zoom of the imaging device 1 may be changed so that the image 41b of the detection sensor 3 is displayed in the display area 41. That is, the user inputs a driving instruction for driving the imaging device 1 to an angle of view including the detection target or the like via the input unit 24. The control unit 21 generates a pan / tilt / rotation / zoom drive instruction (PTRZ drive instruction) in response to the pan / tilt / rotation / zoom change instruction input via the input unit 24, and the communication unit 26. Is transmitted to the imaging device 1 via the. When receiving the PTRZ driving instruction via the communication unit 15, the control unit 11 causes the imaging control unit 16 to control pan / tilt / rotation / zoom driving (PTRZ driving). Thereby, the angle of view of the imaging device 1 is changed to the angle of view designated by the user, that is, the angle of view including the detection target and the like.

さらに、撮像装置1は、変更された画角の画像データをクライアント装置2に送信する。これに応じて、クライアント装置2の表示画面40の表示領域41には、変更後の画角の画像が表示される。
ここで、撮像装置1に対する駆動指示の方法については、例えば上述の表示画面にパン等の駆動を指示するボタンを表示させておき、このボタンがユーザから指示された際に、入力部24を介して入力してもよい。あるいは、入力部24を介して入力されるユーザの指示に応じてPTRZ駆動指示を生成し、通信部15を介して撮像装置1に送信するようにしてもよい。
Further, the imaging device 1 transmits the image data of the changed angle of view to the client device 2. In response, the image of the changed angle of view is displayed in the display area 41 of the display screen 40 of the client device 2.
Here, as for a method of instructing the imaging apparatus 1 to drive, for example, a button for instructing driving such as panning is displayed on the above-described display screen, and when the button is instructed by the user, the input unit 24 is used. May be entered. Alternatively, a PTRZ driving instruction may be generated in accordance with a user's instruction input via the input unit 24, and transmitted to the imaging device 1 via the communication unit 15.

ステップS2において、所望の画角となった際に、ユーザはボタン42a〜42cのいずれかを指示し、制御部21は、そのときの画角を指示されたボタン42a〜42cに対応するプリセット位置とし、撮像装置1に通知する。この通知を受信すると、撮像装置1の撮像制御部16は、ステップS1の駆動指示によって変更された現在の画角を示す情報を指示されたボタン42a〜42cに対応するプリセット位置として記憶部12に登録する。
制御部11は、監視動作を行っているときに、検知センサ3から通信部15を介して知対象物の発生や検知対象物の状態変化等の通知を受信した場合、登録されているプリセット位置に駆動するように、撮像制御部16に駆動指示(PTRZ駆動指示)を供給する。なお、複数のプリセット位置を記録しておいてもよく、その場合は、各プリセット位置に対して、検知センサ3の設定や後述のステップS3における距離情報を設定しておいてもよい。また、撮像制御部16は、監視動作を行っているときに、一定時間ごとにプリセット位置を巡回する制御を実行してもよい。
In step S2, when the desired angle of view is reached, the user instructs one of the buttons 42a to 42c, and the control unit 21 sets the preset position corresponding to the instructed button 42a to 42c at that time. And notifies the imaging device 1. Upon receiving this notification, the imaging control unit 16 of the imaging apparatus 1 stores the information indicating the current angle of view changed by the drive instruction in step S1 in the storage unit 12 as a preset position corresponding to the instructed buttons 42a to 42c. register.
When the control unit 11 receives a notification of the occurrence of a known object or a change in the state of the detection object from the detection sensor 3 via the communication unit 15 during the monitoring operation, the control unit 11 registers the registered preset position. A driving instruction (PTRZ driving instruction) is supplied to the imaging control unit 16 so as to drive the PTRZ. Note that a plurality of preset positions may be recorded. In this case, the setting of the detection sensor 3 and the distance information in step S3 described below may be set for each preset position. In addition, the imaging control unit 16 may execute control for traveling around the preset position at regular intervals during the monitoring operation.

ステップS3において、制御部11は、入力部24を介して、ユーザから検知時のピント面までの距離情報を入力し、制御部21へ通知する。具体的には、ユーザが、上述の表示画面40中の入力領域43aに距離を入力し、保存(Save)を指示するボタン42bを指示すると、制御部21は、通信部26を介して撮像装置1に距離情報を送信する。距離情報を受信した撮像装置1は、撮像制御部16によって、距離情報に基づいてフォーカスレンズの駆動位置(フォーカス位置)の値を求め、求めた値を検知センサ3による検知時のオートフォーカス開始基準位置として設定し、記憶部12に記憶させる。なお、入力ボックス43はオートフォーカス開始基準位置を設定するための一例であり、他の方法でもよい。例えば検知センサ3の情報を用いて検知対象物と撮像部13の光軸方向の距離を算出できる場合は、その距離情報を用いてもよい。 In step S <b> 3, the control unit 11 inputs distance information from the user to the focus plane at the time of detection via the input unit 24 and notifies the control unit 21 of the information. Specifically, when the user inputs a distance into the input area 43a in the display screen 40 and instructs a button 42b for instructing save (Save), the control unit 21 causes the imaging device to communicate via the communication unit 26. 1 transmits the distance information. The imaging apparatus 1 having received the distance information obtains the value of the drive position (focus position) of the focus lens based on the distance information by the imaging control unit 16, and determines the obtained value as the autofocus start reference at the time of detection by the detection sensor 3. The position is set and stored in the storage unit 12. Note that the input box 43 is an example for setting the autofocus start reference position, and another method may be used. For example, when the distance in the optical axis direction between the detection target and the imaging unit 13 can be calculated using the information of the detection sensor 3, the distance information may be used.

(オートフォーカス制御)
図7は、本実施形態におけるオートフォーカス制御の処理を示すフローチャートである。なお、本フローチャートの処理は、撮像制御部16が実行する。
まず、ステップS11において、撮像制御部16は、記憶部12に登録されているプリセット位置に基づいて駆動部をPTRZ駆動させ、撮像装置1の画角を変更する。
(Auto focus control)
FIG. 7 is a flowchart illustrating the auto focus control process according to the present embodiment. Note that the processing of this flowchart is executed by the imaging control unit 16.
First, in step S11, the imaging control unit 16 drives the driving unit based on the preset position registered in the storage unit 12 by PTRZ driving, and changes the angle of view of the imaging device 1.

ステップS12において、撮像制御部16は、検知センサ3による検知結果を受信しているか否かを判定する。具体的には、撮像制御部16は、検知センサ3から検知対象物の発生や検知対象物の状態変化の通知を通信部15を介して受信しているか否かを判定する。受信している場合は、撮像制御部16は、ステップS13に進む。一方、検知センサ3からの検知結果を受信していない場合は、撮像制御部16は、ステップS15に進む。   In step S12, the imaging control unit 16 determines whether or not the detection result of the detection sensor 3 has been received. Specifically, the imaging control unit 16 determines whether or not a notification of the occurrence of the detection target or a change in the state of the detection target is received from the detection sensor 3 via the communication unit 15. If it has been received, the imaging control unit 16 proceeds to step S13. On the other hand, when the detection result from the detection sensor 3 has not been received, the imaging control unit 16 proceeds to step S15.

ステップS13において、撮像制御部16は、撮像装置1のプリセット位置へのPTRZ駆動と並行して、フォーカスレンズの駆動を行う。ここで、フォーカスレンズの駆動位置として、上述の図6のステップS3で設定した検知時のオートフォーカス開始基準位置(AF開始基準位置)を記憶部12から取得する。さらに、撮像制御部16は、フォーカスレンズのフォーカス位置を取得したAF開始基準位置に変更させ、フォーカスレンズを当該AF開始基準位置に焦点が合うように駆動させる。すなわち、検知センサ3からの検知結果を受信した場合には、撮像制御部16は、プリセット位置へのPTRZ駆動中(画角の変更中)に、フォーカスレンズのフォーカス位置をAF開始基準位置に変更させるように制御する。   In step S13, the imaging control unit 16 drives the focus lens in parallel with the PTRZ driving of the imaging device 1 to the preset position. Here, the autofocus start reference position (AF start reference position) at the time of detection set in step S3 of FIG. 6 described above is acquired from the storage unit 12 as the focus lens drive position. Further, the imaging control unit 16 changes the focus position of the focus lens to the acquired AF start reference position, and drives the focus lens to focus on the AF start reference position. That is, when the detection result from the detection sensor 3 is received, the imaging control unit 16 changes the focus position of the focus lens to the AF start reference position during PTRZ driving to the preset position (during changing the angle of view). Control to make it.

ステップS14において、撮像制御部16は、パン・チルト・ローテーション・ズーム駆動の終了後、予めS13で設定されたAF開始基準位置から、オートフォーカス制御(AF制御)を開始する。このオートフォーカス制御は、例えばコントラスト検出方式によって行う。ここで、撮像制御部16は、AF開始基準位置よりオートフォーカス制御を開始し、フォーカスレンズのフォーカス位置を調整しながらコントラストが高い点を探索することで焦点を合わせる。また、撮像制御部16は、検知対象物近辺に焦点を合わせ易くするために、検知時のAF開始基準位置からの制御範囲(オートフォーカスの制御におけるフォーカスの制御範囲)を制限してもよい。あるいは、コントラスト検出方式の代わりに、検知対象物動体検出部等で検出し、検知対象物に常に合焦するようにオートフォーカス制御をしてもよい。   In step S14, the imaging control unit 16 starts the autofocus control (AF control) from the AF start reference position set in advance in S13 after the end of the pan / tilt / rotation / zoom driving. This autofocus control is performed by, for example, a contrast detection method. Here, the imaging control unit 16 starts autofocus control from the AF start reference position, and focuses by searching for a point having high contrast while adjusting the focus position of the focus lens. In addition, the imaging control unit 16 may limit the control range (the focus control range in the autofocus control) from the AF start reference position at the time of detection in order to easily focus on the vicinity of the detection target. Alternatively, instead of the contrast detection method, detection may be performed by a detection target moving object detection unit or the like, and autofocus control may be performed so that the detection target is always focused.

一方、ステップS15において、撮像制御部16は、PTRZ駆動の終了後、通常のAF開始基準位置からオートフォーカス制御を開始する。
プリセット位置への移動については、検知センサ3の検知に応じて撮像制御部16が実行したのではなく、ユーザによるボタン42の指示に応じた移動や、複数のプリセット位置を巡回する制御を行った場合の一定時間毎の移動等が考えられる。このため、撮像制御部16は、現在のフォーカスレンズのフォーカス位置(通常のAF開始基準位置)を基準としてオートフォーカス制御を開始する。このオートフォーカス制御は、例えばS14と同様にコントラスト検出方式によって行う。なお、本ステップにおけるオートフォーカス制御のAF開始基準位置は、現在のフォーカスレンズのフォーカス位置ではなく、予め定めた基準位置としてもよい。
On the other hand, in step S15, after the end of the PTRZ driving, the imaging control unit 16 starts the autofocus control from the normal AF start reference position.
The movement to the preset position was not performed by the imaging control unit 16 in response to the detection of the detection sensor 3, but was performed in accordance with the user's instruction of the button 42 or in control of circulating through a plurality of preset positions. In such a case, it is conceivable to move at regular intervals. Therefore, the imaging control unit 16 starts the auto focus control based on the current focus position of the focus lens (normal AF start reference position). This autofocus control is performed by a contrast detection method, for example, as in S14. Note that the AF start reference position of the autofocus control in this step may be a predetermined reference position instead of the current focus position of the focus lens.

上述のように、本実施形態では、撮像装置1の画角をプリセット位置に変更させる際に、検知センサ3が検知対象物の発生や検知対象物の状態変化を検知した場合は、画角の変更中にフォーカスレンズのフォーカス位置を、対応するAF開始基準位置に変更する。検知センサ3が検知対象物の発生等を検知していない場合は、通常の(オートフォーカス)開始基準位置からオートフォーカス制御を行う。これにより、本実施形態では、検知対象物の状態に応じて迅速にフォーカスを制御することができる。   As described above, in the present embodiment, when the angle of view of the imaging device 1 is changed to the preset position, when the detection sensor 3 detects the occurrence of the detection target or a change in the state of the detection target, the angle of view is changed. During the change, the focus position of the focus lens is changed to the corresponding AF start reference position. When the detection sensor 3 does not detect the occurrence of a detection target or the like, autofocus control is performed from a normal (autofocus) start reference position. Thus, in the present embodiment, the focus can be quickly controlled according to the state of the detection target.

なお、本実施形態では、検知センサ3が検知対象物の発生や検知対象物の所定の状態変化等を検知した場合は、画角をプリセット位置に変更させている間に、フォーカスレンズのフォーカス位置をAF開始基準位置に変更させておくが、これに限られるものではない。例えば、パン・チルト・ローテーション・ズーム駆動の速度によっては、ユーザが移動中の画像を確認したい場合が考えられる。このため、画角の移動時のPTRZ駆動の駆動速度が所定の速度以下の場合は、撮像制御部16が、移動中にフォーカスレンズのフォーカス位置を変更しないようにしてもよい。すなわち、撮像制御部16による駆動速度が所定の閾値より速い場合は、撮像装置1を駆動している間(画角を変更している間)に開始基準位置にフォーカスレンズのフォーカス位置を変更させる。   In the present embodiment, when the detection sensor 3 detects the occurrence of the detection target or a predetermined state change of the detection target, the focus position of the focus lens is changed while the angle of view is changed to the preset position. Is changed to the AF start reference position, but is not limited to this. For example, depending on the speed of the pan / tilt / rotation / zoom drive, the user may want to check the moving image. Therefore, when the drive speed of the PTRZ drive at the time of moving the angle of view is equal to or lower than the predetermined speed, the imaging control unit 16 may not change the focus position of the focus lens during the movement. That is, when the driving speed by the imaging control unit 16 is higher than the predetermined threshold, the focus position of the focus lens is changed to the start reference position while the imaging apparatus 1 is being driven (while the angle of view is being changed). .

実施形態2
上述の実施形態1では、撮像装置1の画角をプリセット位置に移動させる際に、検知センサ3が検知対象物の発生や検知対象物の状態変化を検知した場合は、画角の移動中にフォーカスレンズのフォーカス位置を、対応するAF開始基準位置へ駆動していた。本実施形態では、さらに、検知センサ3による検知終了からの経過時間に応じて、オートフォーカス開始基準位置を制御するようにしている。
以下、本実施形態における、撮像装置1が検知センサ3の検知状況に応じてオートフォーカス開始基準位置を制御する処理について説明する。
なお、本実施形態の監視システムは、上述の実施形態1と同様に構成されている。また、撮像装置1、クライアント装置2、検知センサ3は、上述の実施形態1と同様に構成されている。
Embodiment 2
In the above-described first embodiment, when the angle of view of the imaging device 1 is moved to the preset position, if the detection sensor 3 detects the occurrence of a detection target or a change in the state of the detection target, the detection sensor 3 determines whether or not the angle of view is moving. The focus position of the focus lens has been driven to the corresponding AF start reference position. In the present embodiment, the autofocus start reference position is further controlled in accordance with the elapsed time from the end of detection by the detection sensor 3.
Hereinafter, a process in which the imaging device 1 controls the autofocus start reference position according to the detection state of the detection sensor 3 in the present embodiment will be described.
The monitoring system according to the present embodiment is configured in the same manner as in the first embodiment. The imaging device 1, the client device 2, and the detection sensor 3 are configured in the same manner as in the first embodiment.

図8は、本実施形態におけるオートフォーカス制御の処理を示すフローチャートである。なお、本フローチャートの処理は撮像制御部16が実行する。
まず、ステップS11において、撮像制御部16は、記憶部12に記憶してあるプリセット位置に基づきパン・チルト・ローテーション・ズーム駆動を行い、撮像装置1の画角を変更する。ここで、制御部11は、各駆動機構の駆動速度及び現在位置を撮像制御部16より取得し、プリセット遷移終了時の時刻(プリセット遷移終了時刻)を算出し、記憶部12に記憶させる。具体的には、例えばパン駆動が15°/secであり、90°駆動する必要がある場合は現在時刻より4秒後の時刻がプリセット遷移終了時刻と算出される。
FIG. 8 is a flowchart illustrating a process of the autofocus control according to the present embodiment. Note that the processing of this flowchart is executed by the imaging control unit 16.
First, in step S11, the imaging control unit 16 performs pan / tilt / rotation / zoom driving based on the preset position stored in the storage unit 12, and changes the angle of view of the imaging device 1. Here, the control unit 11 acquires the drive speed and the current position of each drive mechanism from the imaging control unit 16, calculates a time at the end of the preset transition (preset transition end time), and stores the time in the storage unit 12. Specifically, for example, when pan driving is 15 ° / sec and 90 ° driving is required, a time four seconds after the current time is calculated as the preset transition end time.

ステップS12において、撮像制御部16は、検知センサ3による検知結果を受信しているか否かを判定する。具体的には、撮像制御部16は、検知センサ3から検知対象物の発生や検知対象物の状態変化の通知を通信部15を介して受信しているか否かを判定する。受信している場合は、撮像制御部16は、ステップS21に進む。ここで、検知センサ3は、検知対象物の検知結果に関して、検知中状態と検知終了状態を持つものとし、撮像装置1に対して検知結果(検知中状態もしくは検知終了状態)を通信部34を介して通知するものとする。例えば、検知センサ3が人感センサである場合、検知センサ3の検知範囲に人物が登場している間は検知中状態であるとし、人物が移動して検知センサ3の検知範囲から消失した時は、検知終了状態であるとする。あるいは、検知センサ3がドア・窓センサである場合は、ドア・窓が開いた事を検知した場合は検知中状態であるとし、ドア・窓が閉じた事を検知した場合は検知終了状態とする。なお、検知センサ3は、検知中状態と検知終了状態があればどのようなものでもよく、この例に限られるものではない。
一方、検知センサ3から検知中状態の検知結果を受信していない場合は、撮像制御部16は、ステップS15に進む。
In step S12, the imaging control unit 16 determines whether or not the detection result of the detection sensor 3 has been received. Specifically, the imaging control unit 16 determines whether or not a notification of the occurrence of the detection target or a change in the state of the detection target is received from the detection sensor 3 via the communication unit 15. If it has been received, the imaging control unit 16 proceeds to step S21. Here, regarding the detection result of the detection target, the detection sensor 3 has a detection state and a detection end state, and transmits the detection result (detection state or detection end state) to the imaging device 1 via the communication unit 34. Shall be notified via For example, when the detection sensor 3 is a human sensor, it is determined that the detection is being performed while a person appears in the detection range of the detection sensor 3, and when the person moves and disappears from the detection range of the detection sensor 3. Is a detection end state. Alternatively, when the detection sensor 3 is a door / window sensor, it is determined that the detection is being performed when the door / window is opened, and the detection is ended when the door / window is detected to be closed. . The detection sensor 3 may be any type as long as it has a detecting state and a detecting end state, and is not limited to this example.
On the other hand, when the detection result of the detecting state has not been received from the detection sensor 3, the imaging control unit 16 proceeds to step S15.

ステップS21において、検知部33は、検知対象物に対する検知終了状態を確認し、通信部34を介して撮像装置3に検知終了状態を通知する。制御部11は、通信部15を介して検知終了状態の検知結果を受信した時刻を、検知終了時刻として記憶部12に記憶しておく。なお、検知結果に検知センサ3による検知終了時刻が付加されていた場合は、この検知終了時刻を、制御部11が記憶部12に記憶してもよい。   In step S21, the detection unit 33 confirms the detection end state of the detection target, and notifies the imaging device 3 of the detection end state via the communication unit 34. The control unit 11 stores the time at which the detection result of the detection end state was received via the communication unit 15 in the storage unit 12 as the detection end time. When the detection end time by the detection sensor 3 is added to the detection result, the control unit 11 may store the detection end time in the storage unit 12.

ステップS22において、制御部11は、記憶部12に記憶している検知終了時刻及びプリセット位置への移動が終了する時刻(プリセット遷移終了時刻)の差(検知終了後の経過時間)を算出する。この時刻の差が所定時間より短ければ、制御部11は、ステップS13に進み、所定時間より長ければS15に進む。
時刻の差は、撮像装置1のプリセット位置への移動終了時において、検知センサ3の検知終了状態からどれだけの時間が経過したかを示している。検知終了からの経過時間が所定時間より長ければ、検知対象物が既に遠くへ移動している可能性があるため、ステップS15に進み、通常のオートフォーカス開始基準位置からオートフォーカス制御を行う。一方、検知終了からの経過時間が所定時間より短ければ、検知対象物がまだ近くにいる可能性があるため、ステップS13に進み、予めステップS3で定めた検知時のオートフォーカス開始基準位置よりオートフォーカス制御を行う。すなわち、撮像制御部16は、検知センサ3から終了通知を受信してからの経過時間が所定の時間以下である場合に、対応するオートフォーカス開始基準位置からオートフォーカスの制御を行う。
なお、ステップS13〜S15における処理は、上述の実施形態1と同様である。
In step S22, the control unit 11 calculates a difference (elapsed time after the end of detection) between the detection end time stored in the storage unit 12 and the time when the movement to the preset position ends (preset transition end time). If this time difference is shorter than the predetermined time, the control unit 11 proceeds to step S13, and if it is longer than the predetermined time, proceeds to S15.
The time difference indicates how much time has elapsed since the detection end state of the detection sensor 3 at the end of the movement of the imaging device 1 to the preset position. If the elapsed time from the end of detection is longer than the predetermined time, the detection target object may have already moved far away, so the process proceeds to step S15, and autofocus control is performed from the normal autofocus start reference position. On the other hand, if the elapsed time from the end of the detection is shorter than the predetermined time, there is a possibility that the detection target is still close. Perform focus control. That is, when the elapsed time from the reception of the end notification from the detection sensor 3 is equal to or shorter than the predetermined time, the imaging control unit 16 performs autofocus control from the corresponding autofocus start reference position.
The processes in steps S13 to S15 are the same as those in the first embodiment.

上述のように、本実施形態では、検知センサ3の検知終了時刻と撮像装置1のプリセット位置への移動終了時刻に応じて、検知時のAF開始基準位置からオートフォーカス制御するか、通常のAF開始基準位置からオートフォーカス制御をするかを判断する。これにより、本実施形態では、検知対象物の状態に応じて素早く焦点を合わせることができる。   As described above, in the present embodiment, depending on the detection end time of the detection sensor 3 and the movement end time of the imaging device 1 to the preset position, autofocus control is performed from the AF start reference position at the time of detection, or normal AF control is performed. It is determined whether to perform the auto focus control from the start reference position. Thus, in the present embodiment, it is possible to quickly focus on the object to be detected in accordance with the state of the object.

なお、本実施形態では、撮像制御部16は、検知センサ3の検知終了時刻と撮像装置1のプリセット位置への移動終了時刻に応じて、オートフォーカス制御の開始基準位置を切り替えるが、これに限られるものではない。例えば、検知センサ3の検知結果の種類によって変えてもよい。具体的には、例えば検知センサ3の検知結果が重要なものであれば、ステップS3で定めた検知時のAF開始基準位置からオートフォーカス制御を行い、重要でないものであれば、通常のAF開始基準位置からオートフォーカス制御を行うようにしてもよい。すなわち、複数の検知センサ3の重要度に応じて、オートフォーカス開始基準位置を設定する。   In the present embodiment, the imaging control unit 16 switches the autofocus control start reference position in accordance with the detection end time of the detection sensor 3 and the movement end time of the imaging apparatus 1 to the preset position. It is not something that can be done. For example, it may be changed according to the type of the detection result of the detection sensor 3. Specifically, for example, if the detection result of the detection sensor 3 is important, the auto focus control is performed from the AF start reference position at the time of the detection determined in step S3. The auto focus control may be performed from the reference position. That is, the autofocus start reference position is set according to the importance of the plurality of detection sensors 3.

(その他の実施形態)
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した監視システムの機能構成の一部又は全てをハードウェアとして撮像装置1又はクライアント装置2又は検知センサ3に実装してもよい。あるいは、実施形態1と実施形態2を適宜組み合わせることも可能である。例えば、検知センサ3が検知対象物を検知した際に、対応するプリセット位置に撮像装置1を駆動させるように制御してもよい。また、上述した各実施形態の構成、処理等は、撮像装置1、クライアント装置2、検知センサ3以外のPC、コンピュータ、役務機器等に適用してもよい。
(Other embodiments)
As described above, the preferred embodiment of the present invention has been described in detail, but the present invention is not limited to the specific embodiment. For example, a part or all of the functional configuration of the above-described monitoring system may be implemented as hardware in the imaging device 1, the client device 2, or the detection sensor 3. Alternatively, the first embodiment and the second embodiment can be appropriately combined. For example, when the detection sensor 3 detects a detection target, control may be performed such that the imaging device 1 is driven to a corresponding preset position. Further, the configuration, processing, and the like of each embodiment described above may be applied to a PC, a computer, a service device, and the like other than the imaging device 1, the client device 2, and the detection sensor 3.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   In addition, the present invention supplies a program realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus execute the program. The processing can be implemented by reading and executing. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

1…撮像装置、2…クライアント装置、3…検知センサ、11…制御部、12…記憶部、13…撮像部、14…圧縮符号化部、15…通信部、16…撮像制御部、21…制御部、22…記憶部、23…表示部、24…入力部、25…復号部、26…通信部、31…制御部、32…記憶部、33…検知部、34…通信部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Client device, 3 ... Detection sensor, 11 ... Control part, 12 ... Storage part, 13 ... Imaging part, 14 ... Compression coding part, 15 ... Communication part, 16 ... Image pickup control part, 21 Control unit, 22 storage unit, 23 display unit, 24 input unit, 25 decoding unit, 26 communication unit, 31 control unit, 32 storage unit, 33 detection unit, 34 communication unit

Claims (12)

制御装置であって、
前記制御装置の外部の検知手段が対象物を検知した際に撮像手段がオートフォーカスの制御の基準位置とすべき第1の基準位置を設定する設定手段と、
前記検知手段が前記対象物を検知している場合に、前記第1の基準位置に基づいて前記オートフォーカスの制御を行い、前記検知手段が前記対象物を検知していない場合に、第2の基準位置に基づいて前記オートフォーカスの制御を行うよう、前記撮像手段を制御する制御手段と、
を備えることを特徴とする制御装置。
A control device,
Setting means for setting a first reference position to be set as a reference position for autofocus control when the detection means outside the control device detects an object;
When the detecting means is detecting the object, the auto-focus control is performed based on the first reference position, and when the detecting means does not detect the object, a second Control means for controlling the imaging means, so as to control the autofocus based on a reference position,
A control device comprising:
前記制御手段は、
前記検知手段が前記対象物を検知している場合に、前記撮像手段が撮像する画角を変更する駆動手段による画角の変更中に、前記オートフォーカスの制御の基準位置を前記第1の基準位置とするよう、前記撮像手段を制御する、
ことを特徴とする請求項1記載の制御装置。
The control means includes:
When the detection means is detecting the object, the reference position of the autofocus control is set to the first reference during the change of the angle of view by the drive means for changing the angle of view to be imaged by the imaging means. Controlling the imaging means to be a position,
The control device according to claim 1, wherein:
前記制御手段は、
前記検知手段が前記対象物を検出している場合に、前記撮像手段の画角内に前記対象物が所定の大きさで含まれるように前記駆動手段に前記画角を指示する、
ことを特徴とする請求項2に記載の制御装置。
The control means includes:
When the detection means is detecting the object, instructs the driving means so that the object angle is included in a predetermined size within the angle of view of the imaging means,
The control device according to claim 2, wherein:
前記撮像手段は、撮像した画像のコントラストに応じて前記オートフォーカスの制御を行う、
ことを特徴とする請求項1から請求項3のいずれか1項に記載の制御装置。
The imaging unit controls the autofocus according to the contrast of the captured image,
The control device according to any one of claims 1 to 3, wherein:
前記制御手段は、
前記検知手段が前記対象物を検知している場合に、前記駆動手段による駆動速度が所定の閾値より速い場合は、前記駆動手段が画角を変更している間に前記第1の基準位置に基づいて前記オートフォーカスの制御を行うよう、前記撮像手段を制御する、
ことを特徴とする請求項2から請求項4のいずれか1項に記載の制御装置。
The control means includes:
When the detection unit is detecting the object, if the driving speed of the driving unit is faster than a predetermined threshold, the driving unit changes the first reference position while changing the angle of view. Controlling the imaging means so as to control the autofocus based on the
The control device according to any one of claims 2 to 4, wherein:
前記制御手段は、
前記検知手段が前記対象物の検出を終了してからの経過時間が所定の時間以下である場合に、前記第1の基準位置から前記オートフォーカスの制御を行うよう前記撮像手段を制御する、
ことを特徴とする請求項1から請求項5のいずれか1項に記載の制御装置。
The control means includes:
If the elapsed time after the detection means has finished detecting the object is equal to or less than a predetermined time, the imaging means is controlled to perform the autofocus control from the first reference position,
The control device according to claim 1, wherein:
前記設定手段は、
前記撮像手段と前記検知手段の間の距離に基づいて第1の基準位置を設定する、
ことを特徴とする請求項1から請求項6のいずれか1項に記載の制御装置。
The setting means,
Setting a first reference position based on a distance between the imaging unit and the detection unit;
The control device according to any one of claims 1 to 6, wherein:
前記制御手段は、
前記オートフォーカスの制御におけるフォーカスの制御範囲を制限するよう、前記撮像手段を制御する
ことを特徴とする請求項1から請求項7のいずれか1項に記載の制御装置。
The control means includes:
The control device according to any one of claims 1 to 7, wherein the imaging unit is controlled so as to limit a focus control range in the autofocus control.
前記設定手段は、
複数の前記検知手段の重要度に応じて、前記第1の基準位置を設定する、
ことを
ことを特徴とする請求項1から請求項8のいずれか1項に記載の制御装置。
The setting means,
Setting the first reference position according to the importance of the plurality of detection means;
The control device according to any one of claims 1 to 8, wherein:
被写体を撮像する撮像手段と、
請求項1から9のいずれか1項に記載の制御装置と、
を備えることを特徴とする撮像装置。
Imaging means for imaging a subject;
A control device according to any one of claims 1 to 9,
An imaging device comprising:
外部の検知手段が対象物を検知した際に撮像手段がオートフォーカスの制御の基準位置とすべき第1の基準位置を設定するステップと、
前記検知手段が前記対象物を検知している場合に、前記第1の基準位置に基づいて前記オートフォーカスの制御を行い、前記検知手段が前記対象物を検知していない場合に、第2の基準位置に基づいて前記オートフォーカスの制御を行うよう、前記撮像装置を制御するステップと、
を有することを特徴とする撮像装置の制御方法。
Setting a first reference position to be used as a reference position for autofocus control by the imaging means when the external detection means detects the object;
When the detecting means is detecting the object, the auto-focus control is performed based on the first reference position, and when the detecting means does not detect the object, a second Controlling the imaging device so as to control the autofocus based on a reference position,
A method for controlling an imaging device, comprising:
コンピュータを、請求項1から請求項8の何れか1項に記載の制御装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the control device according to any one of claims 1 to 8.
JP2018158188A 2018-08-27 2018-08-27 Control unit, imaging apparatus, control method for imaging apparatus, and program Pending JP2020034592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018158188A JP2020034592A (en) 2018-08-27 2018-08-27 Control unit, imaging apparatus, control method for imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158188A JP2020034592A (en) 2018-08-27 2018-08-27 Control unit, imaging apparatus, control method for imaging apparatus, and program

Publications (1)

Publication Number Publication Date
JP2020034592A true JP2020034592A (en) 2020-03-05

Family

ID=69667864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018158188A Pending JP2020034592A (en) 2018-08-27 2018-08-27 Control unit, imaging apparatus, control method for imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP2020034592A (en)

Similar Documents

Publication Publication Date Title
JP5866499B2 (en) Surveillance camera system and control method for surveillance camera system
JP2017121019A5 (en) COMMUNICATION DEVICE AND ITS CONTROL METHOD
CN108810400B (en) Control device, control method, and recording medium
JP2012119875A5 (en) Imaging apparatus, control method thereof, and program
WO2010137211A1 (en) Camera device with rotary base
US8736744B2 (en) Digital photographing apparatus and method of controlling the same
JP2007166420A (en) Camera system and digital camera
JP4293236B2 (en) Imaging apparatus and imaging method
JP5471224B2 (en) Imaging system, imaging apparatus, information processing apparatus, and imaging method
JP4566908B2 (en) Imaging system
JP6300550B2 (en) Automatic focusing device and automatic focusing method
JP6452386B2 (en) Imaging apparatus, imaging system, and imaging apparatus control method
JP2020034592A (en) Control unit, imaging apparatus, control method for imaging apparatus, and program
JP6435527B2 (en) Imaging device
JP2015012550A (en) Imaging apparatus and imaging system
JP2008301191A (en) Video monitoring system, video monitoring control device, video monitoring control method, and video monitor controlling program
JP6347056B2 (en) Imaging apparatus and still image generation method
KR102150704B1 (en) Apparatus and method for processing image
JP2019216398A (en) Imaging apparatus and control method therefor, and program
JP6270508B2 (en) Imaging apparatus and image display method of imaging apparatus
JP2006217158A5 (en)
JP5100563B2 (en) Surveillance camera device
JP2007074417A (en) Camera control system
JP2022155059A (en) Information processing device, information processing method, and program
JP2016219984A (en) Imaging device, imaging method, and program