JP2019176518A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2019176518A
JP2019176518A JP2019124464A JP2019124464A JP2019176518A JP 2019176518 A JP2019176518 A JP 2019176518A JP 2019124464 A JP2019124464 A JP 2019124464A JP 2019124464 A JP2019124464 A JP 2019124464A JP 2019176518 A JP2019176518 A JP 2019176518A
Authority
JP
Japan
Prior art keywords
detection range
captured image
image
control unit
detected object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019124464A
Other languages
Japanese (ja)
Other versions
JP6828775B2 (en
Inventor
文弥 坂下
Fumiya Sakashita
文弥 坂下
洋一 平沼
Yoichi Hiranuma
洋一 平沼
翔一 坂口
Shoichi Sakaguchi
翔一 坂口
尚平 藤原
Shohei Fujiwara
尚平 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2019124464A priority Critical patent/JP6828775B2/en
Publication of JP2019176518A publication Critical patent/JP2019176518A/en
Application granted granted Critical
Publication of JP6828775B2 publication Critical patent/JP6828775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging device that can reduce a burden on a detection range setting work.SOLUTION: An imaging device picks up an image of an imaging area including a body to be detected and generates picked-up image data showing a picked-up image. The imaging device includes a storage unit and a control unit. The storage unit stores a detection range in the picked-up image. The control unit detects a change of the picked-up image in the detection range on the basis of the picked-up image data. When detecting the change of the picked-up image in the detection range, the control unit changes the detection range so that the detection range includes an image of the body to be detected showing the body to be detected. The control unit changes the position of the detection range on the basis of the relative positions of the image of the body to be detected and the detection range before the body to be detected moves.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

特許文献1には、カメラ設定装置が開示されている。特許文献1に開示のカメラ設定装置は、カメラサーバー装置と、操作端末とを備える。カメラサーバー装置は、カメラと接続する。カメラサーバー装置は、カメラで撮像された映像を取り込み、異常検知処理を行う。操作端末は、ネットワークを介してカメラサーバー装置と接続し、異常検知処理に用いられる各種パラメーターの設定を行う。詳しくは、操作端末は、ユーザーインターフェイス画面を表示する。端末操作者は、インターフェイス画面上で各種パラメーターを設定する。具体的には、端末操作者は、ポインティングデバイスにより、ユーザーインターフェイス画面上で矩形の検知範囲を設定する。カメラサーバー装置は、検知範囲における輝度値の変化に基づいて異常の発生を検知する。   Patent Document 1 discloses a camera setting device. The camera setting device disclosed in Patent Literature 1 includes a camera server device and an operation terminal. The camera server device is connected to the camera. The camera server device captures an image captured by the camera and performs an abnormality detection process. The operation terminal is connected to the camera server device via the network, and sets various parameters used for abnormality detection processing. Specifically, the operation terminal displays a user interface screen. The terminal operator sets various parameters on the interface screen. Specifically, the terminal operator sets a rectangular detection range on the user interface screen using a pointing device. The camera server device detects the occurrence of an abnormality based on a change in luminance value in the detection range.

特開2004−248090号公報JP 2004-248090 A

しかしながら、特許文献1に開示のような技術では、被検知体を配置する位置が変化した場合、検知範囲を再設定する必要がある。   However, in the technique as disclosed in Patent Document 1, when the position where the detection target is arranged changes, it is necessary to reset the detection range.

本発明は、上記課題に鑑み、検知範囲の設定作業の負担を軽減することができる撮像装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an imaging apparatus capable of reducing the burden of detection range setting work.

本発明の第1局面に係る撮像装置は、被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する。当該撮像装置は、記憶部と、制御部とを備える。前記記憶部は、前記撮像画像における検知範囲を示すデータを記憶する。前記制御部は、前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する。前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させる。前記制御部は、前記被検知体が移動する前における前記被検知体画像と前記検知範囲との相対位置に基づいて、前記検知範囲の位置を変化させる。   The imaging device according to the first aspect of the present invention captures an imaging region including a detection target, and generates captured image data indicating the captured image. The imaging apparatus includes a storage unit and a control unit. The storage unit stores data indicating a detection range in the captured image. The control unit detects a change in the captured image in the detection range based on the captured image data. When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target. The control unit changes the position of the detection range based on a relative position between the detection target image and the detection range before the detection target moves.

本発明の第2局面に係る撮像装置は、被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する。当該撮像装置は、記憶部と、制御部とを備える。前記記憶部は、前記撮像画像における検知範囲を示すデータを記憶する。前記制御部は、前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する。前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させる。前記制御部は、前記検知範囲の一部が前記撮像画像の外方に位置する場合、前記検知範囲が前記撮像画像に含まれるように、前記検知範囲の位置を変化させる。   The imaging device according to the second aspect of the present invention images an imaging region including a detection target, and generates captured image data indicating the captured image. The imaging apparatus includes a storage unit and a control unit. The storage unit stores data indicating a detection range in the captured image. The control unit detects a change in the captured image in the detection range based on the captured image data. When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target. When a part of the detection range is located outside the captured image, the control unit changes the position of the detection range so that the detection range is included in the captured image.

本発明の第3局面に係る撮像装置は、被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する。当該撮像装置は、記憶部と、制御部とを備える。前記記憶部は、前記撮像画像における検知範囲を示すデータを記憶する。前記制御部は、前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する。前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させる。前記制御部は、前記検知範囲の一部が前記撮像画像の外方に位置する場合、前記検知範囲が前記撮像画像に含まれるように、前記検知範囲の大きさを変化させる。   The imaging device according to the third aspect of the present invention captures an imaging region including a detection target, and generates captured image data indicating the captured image. The imaging apparatus includes a storage unit and a control unit. The storage unit stores data indicating a detection range in the captured image. The control unit detects a change in the captured image in the detection range based on the captured image data. When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target. When a part of the detection range is located outside the captured image, the control unit changes the size of the detection range so that the detection range is included in the captured image.

本発明の第4局面に係る撮像装置は、被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する。当該撮像装置は、記憶部と、制御部とを備える。前記記憶部は、前記撮像画像における検知範囲を示すデータを記憶する。前記制御部は、前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する。前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させる。前記制御部は、前記被検知体画像の大きさの変化を取得し、前記被検知体画像の大きさの変化に応じて前記検知範囲を変化させる。   The imaging device according to the fourth aspect of the present invention images an imaging region including a detection target, and generates captured image data indicating the captured image. The imaging apparatus includes a storage unit and a control unit. The storage unit stores data indicating a detection range in the captured image. The control unit detects a change in the captured image in the detection range based on the captured image data. When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target. The control unit acquires a change in the size of the detected object image, and changes the detection range according to the change in the size of the detected object image.

本発明の第5局面に係る撮像装置は、被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する。当該撮像装置は、第1記憶部と、制御部と、通知部と、第2記憶部とを備える。前記第1記憶部は、前記撮像画像における検知範囲を示すデータを記憶する。前記制御部は、前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する。前記通知部は、ユーザーに情報を通知する。前記第2記憶部は、前記被検知体の認証用画像を記憶する。前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させる。前記制御部は、前記認証用画像と前記被検知体画像との合致率が閾値よりも低い場合、前記被検知体の向きを変更する旨のメッセージを前記通知部に通知させる。   An imaging device according to a fifth aspect of the present invention images an imaging region including a detection target, and generates captured image data indicating the captured image. The imaging apparatus includes a first storage unit, a control unit, a notification unit, and a second storage unit. The first storage unit stores data indicating a detection range in the captured image. The control unit detects a change in the captured image in the detection range based on the captured image data. The notification unit notifies the user of information. The second storage unit stores an authentication image of the detected object. When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target. When the matching rate between the authentication image and the detected object image is lower than a threshold value, the control unit causes the notification unit to notify a message to change the direction of the detected object.

本発明によれば、検知範囲の設定作業の負担を軽減することができる。   According to the present invention, it is possible to reduce the burden of detection range setting work.

本発明の実施形態1に係る監視システムの構成を示す図である。It is a figure which shows the structure of the monitoring system which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る設定画面の一例を示す図である。It is a figure which shows an example of the setting screen which concerns on Embodiment 1 of this invention. 図2に示す被検知体画像が移動した後の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image after the to-be-detected body image shown in FIG. 2 moved. 図3に示す検知範囲が変化した後の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image after the detection range shown in FIG. 3 changed. 本発明の実施形態1に係る検知範囲変更処理を示すフローチャートである。It is a flowchart which shows the detection range change process which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る撮像画像の他例を示す図である。It is a figure which shows the other example of the captured image which concerns on Embodiment 1 of this invention. 図2に示す被検知体画像が移動した後の撮像画像の第1他例を示す図である。It is a figure which shows the 1st other example of the captured image after the to-be-detected body image shown in FIG. 2 moved. 図7に示す検知範囲が変化した後の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image after the detection range shown in FIG. 7 changed. 図2に示す被検知体画像が移動した後の撮像画像の第2他例を示す図である。It is a figure which shows the 2nd other example of the captured image after the to-be-detected body image shown in FIG. 2 moved. 図9に示す検知範囲が変化した後の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image after the detection range shown in FIG. 9 changed. 本発明の実施形態2に係る検知範囲変更処理を示すフローチャートである。It is a flowchart which shows the detection range change process which concerns on Embodiment 2 of this invention. 図9に示す検知範囲が変化した後の撮像画像の他例を示す図である。It is a figure which shows the other example of the captured image after the detection range shown in FIG. 9 changed. 本発明の実施形態3に係る撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which concerns on Embodiment 3 of this invention. 図13に示す被検知体が移動した後の撮像画像の一例を示す図である。It is a figure which shows an example of the captured image after the to-be-detected body shown in FIG. 13 moved. 本発明の実施形態3に係る検知範囲変更処理を示すフローチャートである。It is a flowchart which shows the detection range change process which concerns on Embodiment 3 of this invention. 本発明の実施形態4に係る監視システムの構成を示す図である。It is a figure which shows the structure of the monitoring system which concerns on Embodiment 4 of this invention. 本発明の実施形態4に係る第1撮像画像及び第2撮像画像の一例を示す図である。It is a figure which shows an example of the 1st captured image and 2nd captured image which concern on Embodiment 4 of this invention. 図17に示す被検知体画像が移動した後の第1撮像画像及び第2撮像画像の一例を示す図である。It is a figure which shows an example of the 1st captured image after the to-be-detected body image shown in FIG. 17 moved, and a 2nd captured image. 本発明の実施形態4に係る検知範囲変更処理を示すフローチャートである。It is a flowchart which shows the detection range change process which concerns on Embodiment 4 of this invention. 図17に示す被検知体画像が移動した後の第1撮像画像及び第2撮像画像の他例を示す図である。It is a figure which shows the other examples of the 1st captured image after the to-be-detected body image shown in FIG. 17 moved, and a 2nd captured image. 本発明の実施形態4に係る第1撮像画像及び第2撮像画像の他例を示す図である。It is a figure which shows the other examples of the 1st captured image and 2nd captured image which concern on Embodiment 4 of this invention. 図21に示す被検知体画像が移動した後の第1撮像画像及び第2撮像画像の一例を示す図である。It is a figure which shows an example of the 1st captured image after the to-be-detected body image shown in FIG. 21 moved, and a 2nd captured image.

以下、図面を参照して、本発明の実施形態について説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。   Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof is not repeated.

[実施形態1]
まず、図1を参照して、本発明の実施形態に係る監視システム100について説明する。図1は、実施形態1に係る監視システム100の構成を示す図である。本実施形態に係る監視システム100は、被検知体に対するイベントの発生を検知する。被検知体は、監視システム100の管理者によって設定(指定)される。被検知体は、例えば、「公共の場に設置される物体」である。被検知体に対するイベントは、例えば、「持ち去り」である。
[Embodiment 1]
First, a monitoring system 100 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration of a monitoring system 100 according to the first embodiment. The monitoring system 100 according to the present embodiment detects the occurrence of an event for the detected object. The object to be detected is set (designated) by the administrator of the monitoring system 100. The detected body is, for example, “an object installed in a public place”. The event for the detected object is, for example, “take away”.

図1に示すように、監視システム100は、第1カメラ1と、制御装置5とを備える。第1カメラ1は、第1撮像装置の一例である。   As shown in FIG. 1, the monitoring system 100 includes a first camera 1 and a control device 5. The first camera 1 is an example of a first imaging device.

第1カメラ1は、撮像素子11、カメラ通信部12、カメラ記憶部13、及びカメラ制御部14を備える。カメラ記憶部13は、第1記憶部の一例である。カメラ制御部14は、制御部の一例である。   The first camera 1 includes an image sensor 11, a camera communication unit 12, a camera storage unit 13, and a camera control unit 14. The camera storage unit 13 is an example of a first storage unit. The camera control unit 14 is an example of a control unit.

撮像素子11は、撮像領域を撮像する。撮像素子11は、撮像画像を示すデータを生成し、カメラ制御部14へ送信する。以下、撮像画像を示すデータを「撮像画像データ」と記載する。撮像素子11は、例えば、CCD(Charge Coupled Device)イメージセンサー、又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーである。   The image sensor 11 captures an image area. The image sensor 11 generates data indicating the captured image and transmits the data to the camera control unit 14. Hereinafter, data indicating a captured image is referred to as “captured image data”. The imaging device 11 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

カメラ通信部12は、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。カメラ通信部12は、LAN(Local Area Network)などのネットワーク網を介して制御装置5と通信する。カメラ通信部12は、例えば、LANボードのような通信モジュール(通信機器)である。本実施形態において、カメラ通信部12は、撮像画像データを制御装置5へ送信する。   The camera communication unit 12 can communicate with an electronic device equipped with a communication device that uses the same communication method (protocol). The camera communication unit 12 communicates with the control device 5 via a network such as a LAN (Local Area Network). The camera communication unit 12 is a communication module (communication device) such as a LAN board, for example. In the present embodiment, the camera communication unit 12 transmits captured image data to the control device 5.

カメラ記憶部13は、撮像画像データなどの各種データを記憶する。カメラ記憶部13は、半導体メモリーによって構成される。半導体メモリーは、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)を構成する。   The camera storage unit 13 stores various data such as captured image data. The camera storage unit 13 is configured by a semiconductor memory. The semiconductor memory includes, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory).

カメラ制御部14は、カメラ記憶部13に記憶されたカメラ制御プログラムを実行することによって、第1カメラ1が備える各部の動作を制御する。カメラ制御部14は、例えば、MPU(micro processing unit)のようなプロセッサーによって構成される。   The camera control unit 14 controls the operation of each unit included in the first camera 1 by executing a camera control program stored in the camera storage unit 13. The camera control unit 14 is configured by a processor such as an MPU (micro processing unit), for example.

カメラ制御部14は、撮像画像データに基づいて、検知範囲における撮像画像の変化を検知する。本実施形態において、検知範囲は、管理者によって予め設定される。検知範囲を示すデータは、カメラ記憶部13に記憶される。   The camera control unit 14 detects a change in the captured image in the detection range based on the captured image data. In the present embodiment, the detection range is preset by the administrator. Data indicating the detection range is stored in the camera storage unit 13.

カメラ制御部14は、例えば、背景差分法によって、撮像画像の変化を検知する。あるいは、カメラ制御部14は、隣接フレーム間差分法によって、撮像画像の変化を検知する。   For example, the camera control unit 14 detects a change in the captured image by the background subtraction method. Or the camera control part 14 detects the change of a captured image by the difference method between adjacent frames.

カメラ制御部14は、検知範囲における撮像画像の変化を検知すると、フラグをオフ状態からオン状態に遷移させる。フラグは、検知範囲における撮像画像が変化したことを示す。フラグを示すデータは、カメラ記憶部13に記憶される。   When detecting a change in the captured image in the detection range, the camera control unit 14 causes the flag to transition from the off state to the on state. The flag indicates that the captured image in the detection range has changed. Data indicating the flag is stored in the camera storage unit 13.

カメラ制御部14は、検知範囲における撮像画像の変化を検知すると、撮像画像データをカメラ記憶部13に記憶させる。また、カメラ制御部14は、検知範囲において撮像画像の変化を検知すると、検知範囲における撮像画像の変化を検知したことを示すデータを、カメラ通信部12を介して制御装置5へ送信する。以下、検知範囲における撮像画像の変化を検知したことを示すデータを「変化検知データ」と記載する。   When detecting a change in the captured image in the detection range, the camera control unit 14 causes the camera storage unit 13 to store the captured image data. When the camera control unit 14 detects a change in the captured image in the detection range, the camera control unit 14 transmits data indicating that the change in the captured image in the detection range is detected to the control device 5 via the camera communication unit 12. Hereinafter, data indicating that a change in the captured image in the detection range is detected is referred to as “change detection data”.

制御装置5は、装置通信部51、入力装置52、出力装置53、装置記憶部54、及び装置制御部55を備える。装置通信部51及び出力装置53は、通知部の一例である。装置記憶部54は、第2記憶部の一例である。装置制御部55は、制御部の一例である。制御装置5は、例えば、サーバーである。   The control device 5 includes a device communication unit 51, an input device 52, an output device 53, a device storage unit 54, and a device control unit 55. The device communication unit 51 and the output device 53 are an example of a notification unit. The device storage unit 54 is an example of a second storage unit. The device control unit 55 is an example of a control unit. The control device 5 is, for example, a server.

装置通信部51は、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。装置通信部51は、LANなどのネットワーク網を介してカメラ通信部12と通信する。装置通信部51は、例えば、LANボードのような通信モジュール(通信機器)である。本実施形態において、装置通信部51は、撮像画像データをカメラ通信部12から受信する。また、装置通信部51は、カメラ制御部14が撮像画像の変化を検知すると、変化検知データをカメラ通信部12から受信する。   The device communication unit 51 can communicate with an electronic device equipped with a communication device that uses the same communication method (protocol). The device communication unit 51 communicates with the camera communication unit 12 via a network such as a LAN. The device communication unit 51 is, for example, a communication module (communication device) such as a LAN board. In the present embodiment, the device communication unit 51 receives captured image data from the camera communication unit 12. Further, when the camera control unit 14 detects a change in the captured image, the device communication unit 51 receives change detection data from the camera communication unit 12.

入力装置52は、制御装置5に対するユーザーの指示の入力を受け付ける。本実施形態において、入力装置52は、キーボード及びマウスを含む。なお、入力装置52は、タッチセンサーを含み得る。   The input device 52 accepts input of user instructions to the control device 5. In the present embodiment, the input device 52 includes a keyboard and a mouse. Note that the input device 52 may include a touch sensor.

出力装置53は、装置通信部51が受信した撮像画像データに基づく撮像画像を出力する。本実施形態において、出力装置53は、液晶ディスプレーのようなディスプレーを含む。   The output device 53 outputs a captured image based on the captured image data received by the device communication unit 51. In the present embodiment, the output device 53 includes a display such as a liquid crystal display.

装置記憶部54は、撮像画像データなどの各種データを記憶する。装置記憶部54は、ストレージデバイス及び半導体メモリーによって構成される。ストレージデバイスは、例えば、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)によって構成される。半導体メモリーは、例えば、RAM及びROMを構成する。   The device storage unit 54 stores various data such as captured image data. The device storage unit 54 includes a storage device and a semiconductor memory. The storage device is configured by, for example, an HDD (Hard Disk Drive) and / or an SSD (Solid State Drive). The semiconductor memory constitutes a RAM and a ROM, for example.

装置制御部55は、装置記憶部54に記憶された装置制御プログラムを実行することによって制御装置5が備える各部の動作を制御する。装置制御部55は、例えば、CPU(Central Processing Unit)のようなプロセッサーによって構成される。   The device control unit 55 controls the operation of each unit included in the control device 5 by executing a device control program stored in the device storage unit 54. The device control unit 55 is configured by a processor such as a CPU (Central Processing Unit), for example.

装置制御部55は、入力装置52が撮像画像の出力の指示を受け付けると、装置通信部51が受信した撮像画像データに基づいて出力装置53に撮像画像を出力させる。あるいは、装置制御部55は、装置記憶部54に記憶された撮像画像データに基づいて出力装置53に撮像画像を出力させる。   When the input device 52 receives an instruction to output a captured image, the device control unit 55 causes the output device 53 to output a captured image based on the captured image data received by the device communication unit 51. Alternatively, the device control unit 55 causes the output device 53 to output a captured image based on the captured image data stored in the device storage unit 54.

また、装置制御部55は、管理者による検知範囲及び被検知体の設定を受け付ける。本実施形態において、装置制御部55は、出力装置53に検知範囲及び被検知体を設定するための設定画面を表示させる。   Moreover, the apparatus control part 55 receives the detection range and the setting of a to-be-detected body by an administrator. In the present embodiment, the device control unit 55 causes the output device 53 to display a setting screen for setting a detection range and a detection target.

次に、図1及び図2を参照して、本実施形態に係る設定画面Sについて説明する。図2は、実施形態1に係る設定画面Sの一例を示す図である。なお、以下では、撮像画像SG1の長手方向をX軸方向とし、撮像画像SG1の短手方向をY軸方向として実施形態を説明する。また、撮像画像SG1の長手方向(X軸方向)における一方側(図2において右側)をX1側とし、他方側(図2において左側)をX2側として実施形態を説明する。更に、撮像画像SG1の短手方向(Y軸方向)における一方側(図2において上側)をY1側とし、他方側(図2において下側)をY2側として実施形態を説明する。   Next, the setting screen S according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 2 is a diagram illustrating an example of the setting screen S according to the first embodiment. In the following, the embodiment will be described with the longitudinal direction of the captured image SG1 as the X-axis direction and the short direction of the captured image SG1 as the Y-axis direction. Further, an embodiment will be described in which one side (right side in FIG. 2) in the longitudinal direction (X-axis direction) of the captured image SG1 is the X1 side and the other side (left side in FIG. 2) is the X2 side. Further, the embodiment will be described in which one side (upper side in FIG. 2) in the short side direction (Y-axis direction) of the captured image SG1 is the Y1 side and the other side (lower side in FIG. 2) is the Y2 side.

図2に示すように設定画面Sは、表示部S1と設定受付部S2とを含む。装置制御部55は、装置通信部51が受信した撮像画像データに基づいて、撮像画像SG1を表示部S1の表示面に表示させる。図2に示す例において、撮像画像SG1は、消火器を示す消火器画像GF及び絵画を示す絵画画像GPを含む。換言すると、第1カメラ1(撮像素子11)は、消火器及び絵画が設置された撮像領域を撮像する。   As shown in FIG. 2, the setting screen S includes a display unit S1 and a setting receiving unit S2. The device control unit 55 displays the captured image SG1 on the display surface of the display unit S1 based on the captured image data received by the device communication unit 51. In the example illustrated in FIG. 2, the captured image SG1 includes a fire extinguisher image GF indicating a fire extinguisher and a painting image GP indicating a painting. In other words, the first camera 1 (image sensor 11) images an imaging area where a fire extinguisher and a picture are installed.

設定受付部S2は、検知範囲4及び被検知体の設定(登録)を受け付ける。詳しくは、設定受付部S2は、設定対象選択部S21、OKボタンS22、及びキャンセルボタンS23を含む。管理者は、入力装置52を用いて、設定対象選択部S21を操作することにより、「被検知体」及び「検知範囲」のうちのいずれかを設定対象として選択することができる。詳しくは、設定対象選択部S21は、ラジオボタンを含む。管理者は、入力装置52を用いて、ラジオボタンの選択状態を変更することにより、「被検知体」及び「検知範囲」のうちいずれかを設定対象として選択することができる。   The setting receiving unit S2 receives the setting (registration) of the detection range 4 and the detected object. Specifically, the setting reception unit S2 includes a setting target selection unit S21, an OK button S22, and a cancel button S23. The administrator can select either “detected body” or “detection range” as a setting target by operating the setting target selection unit S21 using the input device 52. Specifically, the setting target selection unit S21 includes radio buttons. The administrator can select either “detected object” or “detection range” as a setting target by changing the selection state of the radio button using the input device 52.

管理者は、「被検知体」を設定対象として選択した場合、表示部S1に表示された撮像画像SG1上で被検知体を指定することができる。詳しくは、管理者は、入力装置52を用いて、撮像画像SG1に含まれる物体を示す画像(例えば、消火器画像GF及び絵画画像GP)の中から、被検知体を示す画像3を選択(例えば、クリック)することにより、被検知体を指定することができる。以下、被検知体を示す画像3を「被検知体画像3」と記載する。   When the administrator selects “detected object” as the setting target, the administrator can specify the detected object on the captured image SG1 displayed on the display unit S1. Specifically, the administrator uses the input device 52 to select the image 3 indicating the detected object from the images indicating the objects included in the captured image SG1 (for example, the fire extinguisher image GF and the painting image GP) ( For example, the object to be detected can be specified by clicking. Hereinafter, the image 3 indicating the detected object is referred to as “detected object image 3”.

また、管理者は、検知範囲4を設定対象として選択した場合、入力装置52を用いて、表示部S1に表示された撮像画像SG1上で被検知体画像3を含む任意の範囲を選択(例えば、矩形状の図形を描くようにドラッグ)することにより、検知範囲4を指定することができる。検知範囲4が指定されると、検知範囲4を囲む画像(例えば、1点鎖線)が撮像画像SG1上に表示される。検知範囲4を囲む画像は、検知範囲4の外郭を示す。   When the administrator selects the detection range 4 as a setting target, the administrator selects an arbitrary range including the detected object image 3 on the captured image SG1 displayed on the display unit S1 using the input device 52 (for example, The detection range 4 can be specified by dragging to draw a rectangular figure. When the detection range 4 is designated, an image (for example, a one-dot chain line) surrounding the detection range 4 is displayed on the captured image SG1. The image surrounding the detection range 4 shows the outline of the detection range 4.

管理者は、被検知体(被検知体画像3)及び検知範囲4を指定した後、入力装置52を用いて、OKボタンS22を押下することにより、被検知体(被検知体画像3)及び検知範囲4を設定(登録)することができる。装置制御部55は、OKボタンS22の押下を検知すると、被検知体画像3を示すデータ及び検知範囲4を示すデータを取得する。本実施形態では、管理者は、消火器(消火器画像GF)を被検知体(被検知体画像3)として設定し、被検知体画像3(消火器画像GF)を含む範囲を検知範囲4として設定する。なお、装置制御部55は、キャンセルボタンS23の押下を検知すると、被検知体画像3を示すデータ及び検知範囲4を示すデータを取得することなく、設定画面Sの表示を終了させる。以下、被検知体画像3を示すデータを「被検知体画像データ」と記載し、検知範囲4を示すデータを「検知範囲データ」と記載する。   The administrator designates the detected object (detected object image 3) and the detection range 4, and then presses the OK button S22 using the input device 52, thereby detecting the detected object (detected object image 3) and The detection range 4 can be set (registered). When detecting that the OK button S22 is pressed, the device control unit 55 acquires data indicating the detected object image 3 and data indicating the detection range 4. In the present embodiment, the administrator sets the fire extinguisher (fire extinguisher image GF) as the detected object (detected object image 3), and the range including the detected object image 3 (fire extinguisher image GF) is the detection range 4. Set as. In addition, when detecting that the cancel button S23 is pressed, the device control unit 55 ends the display of the setting screen S without acquiring data indicating the detected object image 3 and data indicating the detection range 4. Hereinafter, data indicating the detected object image 3 is referred to as “detected object image data”, and data indicating the detection range 4 is referred to as “detection range data”.

装置制御部55は、被検知体画像データ及び検知範囲データを取得すると、被検知体画像データを認証用画像データとして装置記憶部54に記憶させる。また、装置制御部55は、所定の条件にしたがって、認証用画像データと検知範囲データとを関連付けて装置記憶部54に記憶させる。詳しくは、装置制御部55は、所定の条件にしたがって、検知範囲4の外郭を構成する画素のうちの1つの画素を第1識別画素G1として決定し、被検知体画像3を構成する画素のうちの1つの画素を第2識別画素G2として決定する。第1識別画素G1は、例えば、検知範囲4の外郭を構成する画素のうち、表示面の原点PS(例えば、左上の角)から最も距離が近い位置に表示される画素を示す。本実施形態では、装置制御部55は、表示面の原点PSから最も近い位置に表示される画素が複数ある場合、最もY1側に表示される画素を第1識別画素G1として決定する。同様に、第2識別画素G2は、被検知体画像3を構成する画素のうち、表示面の原点PSから最も距離が近い位置に表示される画素を示す。本実施形態では、装置制御部55は、表示面の原点PSから最も近い位置に表示される画素が複数ある場合、最もY1側に表示される画素を第2識別画素G2として決定する。   When acquiring the detected object image data and the detection range data, the apparatus control unit 55 causes the apparatus storage unit 54 to store the detected object image data as authentication image data. In addition, the device control unit 55 stores the authentication image data and the detection range data in the device storage unit 54 in association with each other according to a predetermined condition. Specifically, the device control unit 55 determines one pixel among the pixels constituting the outline of the detection range 4 as the first identification pixel G1 according to a predetermined condition, and determines the pixels constituting the detected object image 3. One of the pixels is determined as the second identification pixel G2. The first identification pixel G1 indicates, for example, a pixel displayed at a position closest to the origin PS (for example, the upper left corner) of the display surface among the pixels constituting the outline of the detection range 4. In the present embodiment, when there are a plurality of pixels displayed at the position closest to the origin PS on the display surface, the device control unit 55 determines the pixel displayed closest to the Y1 side as the first identification pixel G1. Similarly, the second identification pixel G2 indicates a pixel displayed at a position closest to the origin PS on the display surface among the pixels constituting the detected object image 3. In the present embodiment, when there are a plurality of pixels displayed at the position closest to the origin PS on the display surface, the device control unit 55 determines the pixel displayed closest to the Y1 side as the second identification pixel G2.

装置制御部55は、第1識別画素G1及び第2識別画素G2を決定すると、第1識別画素G1と第2識別画素G2との相対的な位置関係を示す相対位置データを生成する。相対位置データは、第1識別画素G1が表示される位置(座標)と、第2識別画素G2が表示される位置(座標)とに基づいて生成される。装置制御部55は、生成した相対位置データを装置記憶部54に記憶させる。   When determining the first identification pixel G1 and the second identification pixel G2, the device control unit 55 generates relative position data indicating the relative positional relationship between the first identification pixel G1 and the second identification pixel G2. The relative position data is generated based on the position (coordinates) where the first identification pixel G1 is displayed and the position (coordinates) where the second identification pixel G2 is displayed. The device control unit 55 stores the generated relative position data in the device storage unit 54.

また、装置制御部55は、検知範囲4が設定されると、検知範囲データを、装置通信部51を介してカメラ通信部12へ送信する。カメラ制御部14は、カメラ通信部12が検知範囲データを受信すると、検知範囲データをカメラ記憶部13に記憶させる。撮像素子11は、検知範囲データによって示される検知範囲4における撮像画像の変化を検知する。   In addition, when the detection range 4 is set, the device control unit 55 transmits detection range data to the camera communication unit 12 via the device communication unit 51. When the camera communication unit 12 receives the detection range data, the camera control unit 14 stores the detection range data in the camera storage unit 13. The image sensor 11 detects a change in the captured image in the detection range 4 indicated by the detection range data.

続いて、図1〜図5を参照して、検知範囲4において撮像画像が変化したことをカメラ制御部14が検知した場合における監視システム100の処理について説明する。図3は、図2に示す被検知体画像3が移動した後の撮像画像SG1の一例を示す図である。図4は、図3に示す検知範囲4が変化した後の撮像画像SG1の一例を示す図である。   Next, the processing of the monitoring system 100 when the camera control unit 14 detects that the captured image has changed in the detection range 4 will be described with reference to FIGS. FIG. 3 is a diagram illustrating an example of the captured image SG1 after the detected object image 3 illustrated in FIG. 2 has moved. FIG. 4 is a diagram illustrating an example of the captured image SG1 after the detection range 4 illustrated in FIG. 3 has changed.

図2及び図3に示すように、被検知体(消火器画像GF)が移動して、図1を参照して説明したカメラ制御部14によって、検知範囲4における撮像画像の変化が検知されると、変化検知データが装置通信部51へ送信される。   As shown in FIGS. 2 and 3, the detected object (fire extinguisher image GF) moves, and the camera control unit 14 described with reference to FIG. 1 detects a change in the captured image in the detection range 4. Then, the change detection data is transmitted to the device communication unit 51.

装置制御部55は、変化検知データを装置通信部51が受信すると、装置通信部51が受信した撮像画像データを装置記憶部54に記憶させるとともに、検知範囲変更処理を実行する。詳しくは、装置制御部55は、図3及び図4に示すように、被検知体(消火器画像GF)の移動に応じて検知範囲4の位置を変化させる。具体的には、装置制御部55は、検知範囲4が被検知体画像3を含むように、検知範囲4の位置を変化させる。   When the device communication unit 51 receives the change detection data, the device control unit 55 stores the captured image data received by the device communication unit 51 in the device storage unit 54 and executes a detection range change process. Specifically, as shown in FIGS. 3 and 4, the device control unit 55 changes the position of the detection range 4 according to the movement of the detection target (fire extinguisher image GF). Specifically, the device control unit 55 changes the position of the detection range 4 so that the detection range 4 includes the detected object image 3.

より具体的には、図4に示すように、変化後の被検知体画像3を構成する1つの画像(第3識別画素G3)と検知範囲4の外郭を構成する1つの画素(第1識別画素G1)との間の相対的な位置関係が、装置記憶部54に記憶された相対位置データによって示される相対位置と一致するように、検知範囲4の位置を変化させる。例えば、装置制御部55は、移動後の被検知体画像3を構成する画素のうち、表示面の原点PSから最も近い位置に表示される画素を第3識別画素G3として取得し、第3識別画素G3が表示される位置(座標)を取得する。なお、装置制御部55は、表示部S1の表示面の原点PSから最も近い位置に表示される画素が複数ある場合、最もY1側に表示される画素を第3識別画素G3として取得する。   More specifically, as shown in FIG. 4, one image (third identification pixel G3) constituting the detected object image 3 after change and one pixel (first identification) constituting the outline of the detection range 4 The position of the detection range 4 is changed so that the relative positional relationship with the pixel G1) matches the relative position indicated by the relative position data stored in the device storage unit 54. For example, the device control unit 55 acquires, as the third identification pixel G3, a pixel displayed at a position closest to the origin PS on the display surface among the pixels constituting the detected object image 3 after the movement. The position (coordinates) at which the pixel G3 is displayed is acquired. In addition, when there are a plurality of pixels displayed at the position closest to the origin PS on the display surface of the display unit S1, the device control unit 55 acquires the pixel displayed closest to the Y1 side as the third identification pixel G3.

装置制御部55は、第3識別画素G3が表示される位置を示すデータ(座標データ)と、装置記憶部54に記憶された相対位置データとに基づいて、第1識別画素G1を表示する位置(座標)を決定する。換言すると、装置制御部55は、第1識別画素G1と第3識別画素G3との間の相対的な位置関係が相対位置データによって示される相対位置と一致するように、検知範囲4の位置を変化させる。   The device control unit 55 displays the first identification pixel G1 based on the data (coordinate data) indicating the position where the third identification pixel G3 is displayed and the relative position data stored in the device storage unit 54. Determine (coordinates). In other words, the device control unit 55 sets the position of the detection range 4 so that the relative positional relationship between the first identification pixel G1 and the third identification pixel G3 matches the relative position indicated by the relative position data. Change.

続いて、図5を参照して、実施形態1に係る検知範囲変更処理について更に説明する。図5は、実施形態1に係る検知範囲変更処理を示すフローチャートである。検知範囲変更処理は、変化検知データを装置通信部51が受信すると開始される。   Next, the detection range changing process according to the first embodiment will be further described with reference to FIG. FIG. 5 is a flowchart illustrating the detection range changing process according to the first embodiment. The detection range changing process is started when the device communication unit 51 receives change detection data.

図5に示すように、装置制御部55は、変化検知データを装置通信部51が受信すると、待機時間が経過するまで待機する(ステップS102:No)。待機時間は、管理者によって予め設定されて装置記憶部54に記憶される。管理者は、例えば、被検知体を持ち去る第3者が撮像領域外へ移動するために要すると想定する時間を待機時間として設定する。待機時間は、例えば、1分間である。   As illustrated in FIG. 5, when the device communication unit 51 receives the change detection data, the device control unit 55 waits until the standby time elapses (No in step S102). The waiting time is preset by the administrator and stored in the device storage unit 54. For example, the administrator sets, as the standby time, a time that is assumed to be required for the third person who takes away the detected object to move out of the imaging region. The waiting time is, for example, 1 minute.

装置制御部55は、待機時間が経過したと判定すると(ステップS102:Yes)、装置通信部51が受信した撮像画像データと、装置記憶部54に記憶された認証用画像データとに基づいて、撮像画像SG1の中から、認証用画像データによって示される認証用画像と合致する画像を探索し、撮像画像SG1の中に被検知体画像3が含まれるか否かを判定する(ステップS104)。詳しくは、装置制御部55は、パターンマッチング処理によって被検知体画像3の探索を行う。具体的には、装置制御部55は、装置記憶部54に記憶された認証用画像データと撮像画像データとを比較し、認証用画像との合致率が第1閾値以上となる画像が撮像画像SG1の中に存在するか否かによって、被検知体画像3が撮像画像SG1の中に含まれるか否かを判定する。第1閾値は、例えば、管理者によって予め設定される。   If the device control unit 55 determines that the standby time has elapsed (step S102: Yes), based on the captured image data received by the device communication unit 51 and the authentication image data stored in the device storage unit 54, An image that matches the authentication image indicated by the authentication image data is searched from the captured image SG1, and it is determined whether or not the detected object image 3 is included in the captured image SG1 (step S104). Specifically, the device control unit 55 searches for the detected object image 3 by pattern matching processing. Specifically, the device control unit 55 compares the authentication image data stored in the device storage unit 54 with the captured image data, and an image whose matching rate with the authentication image is equal to or greater than a first threshold is captured image. It is determined whether or not the detected object image 3 is included in the captured image SG1 depending on whether or not it exists in SG1. The first threshold is set in advance by an administrator, for example.

装置制御部55は、撮像画像SG1の中に被検知体画像3が含まれないと判定すると(ステップS104:No)、検知範囲変更処理を終了し、持ち去りが発生した旨を示す通知を装置通信部51に通知させる。詳しくは、装置制御部55は、持ち去りが発生した旨を示すメールを、装置通信部51を介して管理者に送信する。あるいは、装置制御部55は、持ち去りが発生した旨を示すメッセージを出力装置53に表示させる。   If the device control unit 55 determines that the detected object image 3 is not included in the captured image SG1 (step S104: No), the device control unit 55 ends the detection range changing process and notifies the device that the carry-out has occurred. The communication unit 51 is notified. Specifically, the device control unit 55 transmits a mail indicating that the take-away has occurred to the administrator via the device communication unit 51. Alternatively, the device control unit 55 causes the output device 53 to display a message indicating that the carry-out has occurred.

一方、装置制御部55は、撮像画像SG1の中に被検知体画像3が含まれると判定すると(ステップS104:Yes)、換言すると、被検知体を配置する位置が変化したと判定すると、検知範囲4の位置を変化させる(ステップS106)。装置制御部55は、検知範囲4の位置を変化させると、装置記憶部54に記憶された撮像画像データを削除する。また、装置制御部55は、変化後の検知範囲4を示す検知範囲データ及びフラグをオフ状態にする要求を、装置通信部51を介してカメラ通信部12へ送信する。カメラ制御部14は、カメラ通信部12が変化後の検知範囲4を示す検知範囲データを受信すると、カメラ記憶部13に記憶された検知範囲データを、変化後の検知範囲4を示す検知範囲データに更新する。また、カメラ制御部14は、カメラ通信部12がフラグをオフ状態にする要求を受信すると、フラグをオフ状態に変化させる。カメラ制御部14は、フラグをオフ状態に変化させると、カメラ記憶部13に記憶された撮像画像データを削除する。これにより、検知範囲変更処理が終了する。   On the other hand, if the apparatus control unit 55 determines that the detected object image 3 is included in the captured image SG1 (step S104: Yes), in other words, if it is determined that the position where the detected object is arranged has changed, the detection is performed. The position of range 4 is changed (step S106). When the position of the detection range 4 is changed, the device control unit 55 deletes the captured image data stored in the device storage unit 54. In addition, the device control unit 55 transmits the detection range data indicating the detection range 4 after the change and a request to turn off the flag to the camera communication unit 12 via the device communication unit 51. When the camera communication unit 12 receives the detection range data indicating the detection range 4 after the change, the camera control unit 14 converts the detection range data stored in the camera storage unit 13 into the detection range data indicating the detection range 4 after the change. Update to Further, when the camera communication unit 12 receives a request to turn off the flag, the camera control unit 14 changes the flag to the off state. When the camera control unit 14 changes the flag to the off state, the captured image data stored in the camera storage unit 13 is deleted. Thereby, the detection range changing process ends.

カメラ通信部12は、カメラ記憶部13に記憶された変化後の検知範囲4を示す検知範囲データに基づいて、撮像画像SG1の変化を検知する。   The camera communication unit 12 detects a change in the captured image SG1 based on detection range data indicating the detection range 4 after the change stored in the camera storage unit 13.

以上、実施形態1について説明した。本実施形態によれば、被検知体が移動した場合、装置制御部55は、被検知体画像3を含むように、検知範囲4の位置を変化させる。したがって、管理者は、検知範囲4を再設定する必要がない。この結果、管理者による検知範囲4の設定作業の負担を軽減することができる。   The first embodiment has been described above. According to the present embodiment, when the detected object moves, the device control unit 55 changes the position of the detection range 4 so as to include the detected object image 3. Therefore, the administrator does not need to reset the detection range 4. As a result, the burden of setting the detection range 4 by the administrator can be reduced.

なお、本実施形態において、出力装置53が、ディスプレーである構成を説明したが、出力装置53は、例えば、画像を用紙などのシートに出力するプリンターであってもよい。   In the present embodiment, the configuration in which the output device 53 is a display has been described. However, the output device 53 may be, for example, a printer that outputs an image to a sheet such as paper.

また、本実施形態において、検知範囲4の形状が矩形状である場合を例に説明したが、検知範囲4の形状は、被検知体画像3を含む形状である限り特に限定されない。検知範囲4の形状は、例えば、被検知体画像3の輪郭に沿った形状であってもよい。   Further, in the present embodiment, the case where the shape of the detection range 4 is rectangular has been described as an example, but the shape of the detection range 4 is not particularly limited as long as the shape includes the detected object image 3. The shape of the detection range 4 may be, for example, a shape along the contour of the detected object image 3.

また、例えば、移動後の被検知体の向きが移動前の被検知体の向きと異なる場合、移動後の被検知体画像3と認証用画像との合致率が第2閾値よりも小さくなる場合がある。第2閾値は、管理者によって設定される。第2閾値は、第1閾値よりも高い値を有する。装置制御部55は、合致率が第2閾値よりも低く第1閾値よりも高い場合、第1カメラ1に対する被検知体の角度を変更して再度配置するように促すメッセージを出力装置53に出力させて管理者に通知してもよい。なお、第2閾値は、閾値の一例である。   In addition, for example, when the direction of the detected object after movement is different from the direction of the detected object before movement, the coincidence ratio between the detected object image 3 after movement and the authentication image is smaller than the second threshold value. There is. The second threshold is set by the administrator. The second threshold has a value higher than the first threshold. If the match rate is lower than the second threshold value and higher than the first threshold value, the device control unit 55 outputs a message to the output device 53 urging to change the angle of the detected object with respect to the first camera 1 and to place it again. The administrator may be notified. The second threshold value is an example of a threshold value.

また、本実施形態では、撮像画像SGに含まれる被検知体画像3(一方向から見た被検知体を示す画像)が認証用画像として装置記憶部54に記憶されたが、認証用画像は、被検知体を多方向から見た複数の画像を含んでもよい。この場合、装置制御部55は、装置記憶部54に記憶された複数の認識用画像を用いて合致率を算出し、複数の認証用画像のうち、最も高い合致率を示す認証用画像を選択して被検知体画像3を探索する。   In the present embodiment, the detected object image 3 (an image showing the detected object viewed from one direction) included in the captured image SG is stored in the device storage unit 54 as an authentication image. A plurality of images obtained by viewing the detected object from multiple directions may be included. In this case, the device control unit 55 calculates a match rate using a plurality of recognition images stored in the device storage unit 54, and selects an authentication image showing the highest match rate from the plurality of authentication images. Then, the detected object image 3 is searched.

また、本実施形態では、認証用画像データが被検知体画像3である場合を例に説明したが、認証用画像データは、例えば、被検知体の形状(輪郭)を示すデータであってもよい。   In this embodiment, the case where the authentication image data is the detected object image 3 has been described as an example. However, the authentication image data may be data indicating the shape (contour) of the detected object, for example. Good.

あるいは、撮像画像SG1が被検知体を識別する識別画像31を含む場合、認証用画像データは、識別画像31を示すデータであってもよい。装置制御部55は、例えば、OCR(Optical Character Recognition)の機能を利用することによって識別画像31を取得する。詳しくは、装置制御部55は、撮像画像SG1に含まれる文字画像をOCRの機能を利用して解析することにより識別画像31を取得する。図6は、実施形態1に係る撮像画像SG1の他例を示す図である。図6に示す例のように、被検知体が消火器である場合、識別画像31は、「消火器」の文字を示す。   Alternatively, when the captured image SG1 includes the identification image 31 for identifying the detection target, the authentication image data may be data indicating the identification image 31. The device control unit 55 acquires the identification image 31 by using a function of OCR (Optical Character Recognition), for example. Specifically, the device control unit 55 acquires the identification image 31 by analyzing the character image included in the captured image SG1 using the OCR function. FIG. 6 is a diagram illustrating another example of the captured image SG1 according to the first embodiment. When the detected object is a fire extinguisher as in the example illustrated in FIG. 6, the identification image 31 indicates the characters “fire extinguisher”.

また、本実施形態では、撮像素子11が撮像する撮像領域が一定である構成を例に説明したが、カメラ制御部14は、検知範囲4に含まれる画素の変化に基づいて被検知体の動きを検知すると、被検知体を追尾するように、撮像素子11の撮像領域を変化させてもよい。例えば、図2及び図7に示すように、被検知体画像3がX1方向に移動すると、撮像領域は、X1方向へ変化する。図7は、図2に示す被検知体画像3が移動した後の撮像画像SG1の第1他例を示す図である。図8は、図7に示す検知範囲4が変化した後の撮像画像SGの一例を示す図である。図8に示すように、装置制御部55は、図2〜図5を参照して説明したように、移動後の被検知体画像3を含むように検知範囲4の位置を変化させる。   In this embodiment, the configuration in which the imaging region captured by the imaging device 11 is constant has been described as an example. However, the camera control unit 14 moves the detected object based on the change in the pixels included in the detection range 4. When detecting, the imaging region of the imaging device 11 may be changed so as to track the detection target. For example, as shown in FIGS. 2 and 7, when the detected object image 3 moves in the X1 direction, the imaging region changes in the X1 direction. FIG. 7 is a diagram illustrating a first other example of the captured image SG1 after the detected object image 3 illustrated in FIG. 2 has moved. FIG. 8 is a diagram illustrating an example of the captured image SG after the detection range 4 illustrated in FIG. 7 has changed. As illustrated in FIG. 8, as described with reference to FIGS. 2 to 5, the device control unit 55 changes the position of the detection range 4 so as to include the detected object image 3 after movement.

また、本実施形態において、待機時間は、被検知体を持ち去る第3者が撮像領域外へ移動するために要すると想定される時間に設定されたが、待機時間は、変更されてもよい。例えば、被検知体を使用する予定がある場合、待機時間は、被検知体を使用する期間に装置制御部55によって一時的に変更されてもよい。具体的には、待機時間は、被検知体が消火器である場合、避難訓練などが予定されている期間に変更されてもよい。これにより、被検知体が持ち去られたと誤って検知されることが抑制される。   In this embodiment, the standby time is set to a time that is assumed to be required for a third person who takes away the detected object to move out of the imaging area, but the standby time may be changed. For example, when there is a plan to use the detected object, the standby time may be temporarily changed by the apparatus control unit 55 during the period in which the detected object is used. Specifically, when the detected object is a fire extinguisher, the standby time may be changed to a period in which evacuation training or the like is scheduled. Thereby, it is suppressed that the detected object is erroneously detected as being carried away.

また、本実施形態では、装置制御部55が被検知体に対するイベントの発生を検知したが、被検知体に対するイベントの発生は、カメラ制御部14が検知してもよい。   In the present embodiment, the device control unit 55 detects the occurrence of an event for the detected object. However, the camera control unit 14 may detect the occurrence of an event for the detected object.

[実施形態2]
続いて、図1、図2、及び図9〜図11を参照して、実施形態2に係る監視システム100について説明する。実施形態2は、検知範囲4が撮像画像SG1の外方に位置する場合に、装置制御部55が検知範囲4を変化させる点が実施形態1と異なる。以下、実施形態2について実施形態1と異なる事項について説明し、実施形態1と重複する部分についての説明は割愛する。
[Embodiment 2]
Next, the monitoring system 100 according to the second embodiment will be described with reference to FIGS. 1, 2, and 9 to 11. The second embodiment is different from the first embodiment in that the device control unit 55 changes the detection range 4 when the detection range 4 is located outside the captured image SG1. Hereinafter, the matters different from the first embodiment will be described for the second embodiment, and the description of the parts overlapping with the first embodiment will be omitted.

まず、図9及び図10を参照して、実施形態2に係る検知範囲4について説明する。図9は、図2に示す被検知体画像3が移動した後の撮像画像SG1の第2他例を示す図である。図10は、図9に示す検知範囲4が変化した後の撮像画像SG1の一例を示す図である。なお、図10では、相対位置データに基づいて変化させた検知範囲4(実施形態1参照)を2点鎖線で示している。   First, the detection range 4 according to the second embodiment will be described with reference to FIGS. 9 and 10. FIG. 9 is a diagram illustrating a second other example of the captured image SG1 after the detected object image 3 illustrated in FIG. 2 has moved. FIG. 10 is a diagram illustrating an example of the captured image SG1 after the detection range 4 illustrated in FIG. 9 has changed. In FIG. 10, the detection range 4 (see Embodiment 1) changed based on the relative position data is indicated by a two-dot chain line.

移動後の被検知体画像3が、撮像画像SG1の端部に位置する場合、相対位置データに基づいて検知範囲4の位置を変化させると、変化後の検知範囲4のうちの一部が撮像画像SG1の外方に位置してしまう場合がある。例えば、図9及び図10に示すように、移動後の被検知体画像3が、X2方向における撮像画像SG1の端部に位置する場合、相対位置データに基づいて検知範囲4の位置を変化させると、検知範囲4のX2側の外郭が撮像画像SG1の外方に位置してしまう。本実施形態では、相対位置データに基づいて検知範囲4を移動させることにより、検知範囲4の外郭が撮像画像SG1の外方に位置してしまう場合、装置制御部55は、検知範囲4のすべての外郭が撮像画像SG1の内方に位置するように、検知範囲4の位置を更に変化させる。図10に示す例では、装置制御部55は、検知範囲4のX2側の外郭が撮像画像SG1の内方に位置するように、検知範囲4をX1側へ更に移動させる。具体的には、装置制御部55は、検知範囲4のX2側の外郭のX座標が「0」の値を示すように検知範囲4をX1側へ移動させる。なお、図9に示す例において、相対位置データに基づいて変化させた検知範囲4の第1識別画素G1を表示する位置のX座標は、負の値を示す。   When the detected object image 3 after movement is located at the end of the captured image SG1, if the position of the detection range 4 is changed based on the relative position data, a part of the changed detection range 4 is captured. It may be located outside the image SG1. For example, as shown in FIGS. 9 and 10, when the detected object image 3 after movement is located at the end of the captured image SG1 in the X2 direction, the position of the detection range 4 is changed based on the relative position data. Then, the outline on the X2 side of the detection range 4 is located outside the captured image SG1. In this embodiment, when the outline of the detection range 4 is located outside the captured image SG1 by moving the detection range 4 based on the relative position data, the device control unit 55 causes all of the detection ranges 4 to be moved. The position of the detection range 4 is further changed so that the outer contour is located inward of the captured image SG1. In the example illustrated in FIG. 10, the device control unit 55 further moves the detection range 4 to the X1 side so that the X2 side outline of the detection range 4 is positioned inward of the captured image SG1. Specifically, the device control unit 55 moves the detection range 4 to the X1 side so that the X coordinate of the outline on the X2 side of the detection range 4 indicates a value of “0”. In the example shown in FIG. 9, the X coordinate of the position where the first identification pixel G1 in the detection range 4 changed based on the relative position data is displayed indicates a negative value.

図11は、実施形態2に係る検知範囲変更処理を示すフローチャートである。図11に示すように、装置制御部55は、相対位置データに基づいて検知範囲4の位置を変化させると(ステップS106)、移動後の検知範囲4の外郭の一部が撮像画像SG1の外方に位置するか否かを判定する(ステップS202)。装置制御部55は、検知範囲4の外郭の一部が撮像画像SG1の外方に位置すると判定すると(ステップS202:Yes)、検知範囲4の全ての外郭が撮像画像SG1の内方に位置するように検知範囲4の位置を変化させて(ステップS204)、検知範囲変更処理を終了する。一方、装置制御部55は、検知範囲4の外郭の一部が撮像画像SG1の外方に位置しないと判定すると(ステップS202:No)、検知範囲変更処理を終了する。   FIG. 11 is a flowchart illustrating detection range change processing according to the second embodiment. As illustrated in FIG. 11, when the device control unit 55 changes the position of the detection range 4 based on the relative position data (step S106), a part of the outline of the detection range 4 after the movement is outside the captured image SG1. It is determined whether it is located in the direction (step S202). When the device control unit 55 determines that a part of the outline of the detection range 4 is located outside the captured image SG1 (step S202: Yes), all the outlines of the detection range 4 are located inside the captured image SG1. As described above, the position of the detection range 4 is changed (step S204), and the detection range change process is terminated. On the other hand, when the device control unit 55 determines that a part of the outline of the detection range 4 is not located outside the captured image SG1 (step S202: No), the detection range change process is terminated.

以上、実施形態2について説明した。本実施形態によれば、装置制御部55は、移動後の検知範囲4の外郭の一部が撮像画像SG1の外方に位置する場合、撮像画像SG1の内方に検知範囲4の外郭の全てが位置するように、検知範囲4の位置を変化させる。したがって、管理者による検知範囲4の設定作業の負担を軽減することができる。   The second embodiment has been described above. According to this embodiment, when a part of the outline of the detection range 4 after movement is located outside the captured image SG1, the apparatus control unit 55 places all the outlines of the detection range 4 inside the captured image SG1. The position of the detection range 4 is changed so that is positioned. Therefore, the burden of the setting work of the detection range 4 by the administrator can be reduced.

なお、本実施形態において、装置制御部55は、検知範囲4の外郭の一部が撮像画像SG1の外方に位置する場合に、検知範囲4の全ての外郭が撮像画像SG1の内方に位置するように検知範囲4を移動させたが、検知範囲4は、検知範囲4の全ての外郭が撮像画像SG1の内方に位置すればよく、例えば、検知範囲4の全ての外郭が撮像画像SG1の内方に位置するように、検知範囲4の大きさ又は形状を変化させてもよい。具体的には、図12に示すように、装置制御部55は、撮像画像SG1の外方に位置する検知範囲4を削除し、X1方向及びY1方向に検知範囲4を拡張してもよい。図12において、ハッチングで示す領域は、拡張された領域である。図12は、図9に示す検知範囲4が変化した後の撮像画像SG1の他例を示す図である。検知範囲4の大きさを変化させる場合、変化後の検知範囲4の大きさは、変化前の検知範囲4の大きさと同じ、あるいは、変化前の検知範囲4よりも大きいほうが好ましい。これにより、例えば、被検知体に人が近づくなどの被検知体の周囲における画像変化を検知することができる。この結果、被検知体に対するイベントの発生をより早いタイミングで検知することができる。   In the present embodiment, the device control unit 55 determines that all the outlines of the detection range 4 are positioned inside the captured image SG1 when a part of the outline of the detection range 4 is positioned outside the captured image SG1. The detection range 4 is moved so that all the outlines of the detection range 4 may be located inside the captured image SG1. For example, all the outlines of the detection range 4 are captured image SG1. The size or shape of the detection range 4 may be changed so as to be located inward. Specifically, as illustrated in FIG. 12, the device control unit 55 may delete the detection range 4 located outside the captured image SG1, and extend the detection range 4 in the X1 direction and the Y1 direction. In FIG. 12, the area indicated by hatching is an expanded area. FIG. 12 is a diagram illustrating another example of the captured image SG1 after the detection range 4 illustrated in FIG. 9 has changed. When the size of the detection range 4 is changed, the size of the detection range 4 after the change is preferably the same as the size of the detection range 4 before the change or larger than the detection range 4 before the change. Thereby, for example, it is possible to detect an image change around the detected object such as a person approaching the detected object. As a result, it is possible to detect the occurrence of an event for the detected object at an earlier timing.

[実施形態3]
続いて、図1、図2、及び図13〜図15を参照して、実施形態3に係る監視システム100について説明する。実施形態3では、被検知体画像3の大きさの変化に応じて検知範囲4の大きさを変化させる点が実施形態1及び実施形態2と異なる。
[Embodiment 3]
Subsequently, the monitoring system 100 according to the third embodiment will be described with reference to FIGS. 1, 2, and 13 to 15. The third embodiment is different from the first and second embodiments in that the size of the detection range 4 is changed in accordance with the change in the size of the detected object image 3.

図13は、実施形態3に係る撮像画像SG1の一例を示す図である。図14は、図13に示す被検知体が移動した後の撮像画像SGの一例を示す図である。なお、図14では、理解を容易にするために、変化前の検知範囲4(図13に示す検知範囲4)を2点鎖線で示している。   FIG. 13 is a diagram illustrating an example of the captured image SG1 according to the third embodiment. FIG. 14 is a diagram illustrating an example of the captured image SG after the detection target illustrated in FIG. 13 has moved. In FIG. 14, the detection range 4 before the change (the detection range 4 shown in FIG. 13) is indicated by a two-dot chain line for easy understanding.

本実施形態において、装置制御部55は、被検知体が第1カメラ1に近づく方向又は第1カメラ1から離れる方向へ移動すると、被検知体画像3の変化に応じて検知範囲4の大きさを変化させる。詳しくは、カメラ制御部14は、被検知体が第1カメラ1に近づく方向又は第1カメラ1から離れる方向へ移動すると、撮像素子11の焦点が被検知体に合うように撮像素子11の動作を制御する(オートフォーカス機能を実行する)。カメラ制御部14は、撮像素子11の焦点が被検知体に合うように焦点位置を変更させると、撮像画像データ及び変化検知データに加えて、変更前の焦点位置と変更後の焦点位置との間の距離を示す焦点距離変化データを、カメラ通信部12を介して装置通信部51へ送信する。   In the present embodiment, when the detected object moves in a direction approaching the first camera 1 or in a direction away from the first camera 1, the apparatus control unit 55 determines the size of the detection range 4 according to the change in the detected object image 3. To change. Specifically, the camera control unit 14 operates the image sensor 11 so that the focus of the image sensor 11 is aligned with the object to be detected when the object to be detected moves toward the first camera 1 or away from the first camera 1. (Auto focus function is executed). When the camera control unit 14 changes the focus position so that the focus of the image sensor 11 matches the detection target, in addition to the captured image data and the change detection data, the camera control unit 14 determines whether the focus position before the change and the focus position after the change. The focal length change data indicating the distance between them is transmitted to the apparatus communication unit 51 via the camera communication unit 12.

装置制御部55は、焦点距離変化データを装置通信部51が受信すると、焦点距離変化データに基づいて、装置記憶部54に記憶された認識用画像データが示す認識用画像を拡大又は縮小する。装置制御部55は、拡大又は縮小後の認識用画像を用いて撮像画像SG1の中から被検知体画像3を探索し、図4を参照して説明したように被検知体画像3の第3識別画素G3を表示する位置を決定する。   When the device communication unit 51 receives the focal length change data, the device control unit 55 enlarges or reduces the recognition image indicated by the recognition image data stored in the device storage unit 54 based on the focal length change data. The device control unit 55 searches for the detected object image 3 from the captured image SG1 using the enlarged or reduced recognition image, and the third of the detected object image 3 as described with reference to FIG. The position for displaying the identification pixel G3 is determined.

また、装置制御部55は、焦点距離変化データ、相対位置データ、及び第3識別画素G3が表示される位置(座標)を示すデータに基づいて、第1識別画素G1が表示される位置を決定し、図4を参照して説明したように、検知範囲4の位置を変化させる。詳しくは、装置制御部55は、第3識別画素G3と第1識別画素G1との間の距離が、焦点距離変化データに基づいて伸長又は短縮された距離となるように、第1識別画素G1を表示する位置を決定する。   Further, the device control unit 55 determines the position where the first identification pixel G1 is displayed based on the focal length change data, the relative position data, and the data indicating the position (coordinates) where the third identification pixel G3 is displayed. As described with reference to FIG. 4, the position of the detection range 4 is changed. Specifically, the device control unit 55 sets the first identification pixel G1 so that the distance between the third identification pixel G3 and the first identification pixel G1 becomes a distance expanded or shortened based on the focal length change data. Determine the position to display.

その後、装置制御部55は、焦点距離変化データに基づいて、検知範囲4の大きさを拡大又は縮小する。   Thereafter, the device control unit 55 enlarges or reduces the size of the detection range 4 based on the focal length change data.

図13及び図14に示す例では、被検知体は、第1カメラ1に近づくように移動する。したがって、装置制御部55は、認識用画像を拡大する。次いで、装置制御部55は、拡大後の認識用画像を用いて、撮像画像SG1の中から被検知体画像3を探索する。装置制御部55は、探索した被検知体画像3を構成する画素の中から、第3識別画素G3を取得する。   In the example illustrated in FIGS. 13 and 14, the detection target moves so as to approach the first camera 1. Therefore, the device control unit 55 enlarges the recognition image. Next, the device control unit 55 searches for the detected object image 3 from the captured image SG1 using the enlarged recognition image. The device control unit 55 acquires the third identification pixel G3 from the pixels constituting the detected object image 3 to be searched.

図14に示す例において、第3識別画素G3は、被検知体画像3を構成する画素のうち、表示部S1の表示面の原点PSからの距離が最も近い位置に表示される画素である。なお、装置制御部55は、表示部S1の表示面の原点PSから最も近い位置に表示される画素が複数ある場合、最もY1側に表示される画素を第3識別画素G3として取得する。そして、装置制御部55は、第3識別画素G3が表示される位置を示すデータ、相対位置データ、及び焦点距離変化データに基づいて第1識別画素G1が表示される位置を決定し、決定した位置に第1識別画素G1が表示されるように検知範囲4の位置を移動させる。その後、装置制御部55は、装置通信部51が受信した焦点距離変化データに基づいて、検知範囲4の大きさを拡大する。   In the example illustrated in FIG. 14, the third identification pixel G3 is a pixel that is displayed at a position where the distance from the origin PS of the display surface of the display unit S1 is the shortest among the pixels constituting the detected object image 3. In addition, when there are a plurality of pixels displayed at the position closest to the origin PS on the display surface of the display unit S1, the device control unit 55 acquires the pixel displayed closest to the Y1 side as the third identification pixel G3. Then, the device control unit 55 determines and determines the position at which the first identification pixel G1 is displayed based on the data indicating the position at which the third identification pixel G3 is displayed, the relative position data, and the focal length change data. The position of the detection range 4 is moved so that the first identification pixel G1 is displayed at the position. Thereafter, the device control unit 55 expands the size of the detection range 4 based on the focal length change data received by the device communication unit 51.

続いて、図15を参照して、実施形態3に係る検知範囲変更処理について説明する。図15は、実施形態3に係る検知範囲変更処理を示すフローチャートである。本実施形態に係る検知範囲変更処理は、変化検知データに加え、焦点距離変化データを装置通信部51が受信すると開始される。   Subsequently, the detection range changing process according to the third embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating detection range change processing according to the third embodiment. The detection range changing process according to the present embodiment is started when the apparatus communication unit 51 receives focal length change data in addition to the change detection data.

図15に示すように、装置制御部55は、待機時間が経過したと判定すると(ステップS102:Yes)、被検知体画像3を探索する(ステップS302)。詳しくは、装置制御部55は、装置通信部51が受信した撮像画像データと、焦点距離変化データと、装置記憶部54に記憶された認証用画像データとに基づいて、撮像画像SG1の中から、認証用画像と合致する画像を探索する。より詳しくは、装置制御部55は、焦点距離変化データに基づいて、装置記憶部54に記憶された認識用画像データが示す認識用画像を拡大又は縮小し、拡大又は縮小後の認証画像を用いて、撮像画像SG1の中から被検知体画像3を探索する。装置制御部55は、第3被検知体画像3を探索すると、第3識別画素G3が表示される位置を取得する。次いで、装置制御部55は、検知範囲4の位置を変化させる(ステップS306)。詳しくは、焦点距離変化データと、相対位置データと、第3識別画素G3が表示される位置を示すデータとに基づいて第1識別画素G1を表示する位置を決定し、検知範囲4の位置を変化させる。次いで、装置制御部55は、焦点距離変化データに基づいて検知範囲4の大きさを拡大又は縮小して(ステップS308)、検知範囲変更処理を終了する。なお、ステップS306とステップS308との順番は相互に入れ替え可能である。   As illustrated in FIG. 15, when the device control unit 55 determines that the standby time has elapsed (step S102: Yes), the device control unit 55 searches for the detected object image 3 (step S302). Specifically, the device control unit 55 selects from the captured image SG1 based on the captured image data received by the device communication unit 51, the focal length change data, and the authentication image data stored in the device storage unit 54. Search for an image that matches the authentication image. More specifically, the device control unit 55 enlarges or reduces the recognition image indicated by the recognition image data stored in the device storage unit 54 based on the focal length change data, and uses the enlarged or reduced authentication image. Thus, the detected object image 3 is searched from the captured image SG1. When searching for the third detected object image 3, the device control unit 55 acquires a position where the third identification pixel G <b> 3 is displayed. Next, the device control unit 55 changes the position of the detection range 4 (step S306). Specifically, the position for displaying the first identification pixel G1 is determined based on the focal length change data, the relative position data, and the data indicating the position where the third identification pixel G3 is displayed, and the position of the detection range 4 is determined. Change. Next, the device control unit 55 enlarges or reduces the size of the detection range 4 based on the focal length change data (step S308), and ends the detection range change process. Note that the order of step S306 and step S308 can be interchanged.

以上、実施形態3について説明した。本実施形態によれば、被検知体が第1カメラ1に近づく方向又は第1カメラ1から離れる方向に移動した場合であっても、装置制御部55は、移動後の被検知体画像3の位置に応じて検知範囲4の位置及び大きさを変更する。したがって、管理者による検知範囲4の設定作業の負担を軽減することができる。   The third embodiment has been described above. According to the present embodiment, even when the detected object moves in a direction approaching the first camera 1 or in a direction away from the first camera 1, the device control unit 55 does not move the detected object image 3. The position and size of the detection range 4 are changed according to the position. Therefore, the burden of the setting work of the detection range 4 by the administrator can be reduced.

[実施形態4]
続いて、図16〜図22を参照して、実施形態4に係る監視システム100について説明する。実施形態4では、カメラが複数である点が実施形態1〜実施形態3と異なる。以下、実施形態4について実施形態1〜実施形態3と異なる事項について説明し、実施形態1〜実施形態3と重複する部分についての説明は割愛する。
[Embodiment 4]
Next, the monitoring system 100 according to the fourth embodiment will be described with reference to FIGS. The fourth embodiment is different from the first to third embodiments in that there are a plurality of cameras. Hereinafter, the matters different from the first to third embodiments will be described for the fourth embodiment, and the description of the parts overlapping with the first to third embodiments will be omitted.

まず、図16を参照して、実施形態4に係る監視システム100の構成について説明する。図16は、実施形態4に係る監視システム100の構成を示す図である。図16に示すように、監視システム100は、第2カメラ2を更に備える。第2カメラ2は、第1カメラ1とは異なる撮像領域を撮像する。以下、第1カメラ1の撮像領域を「第1撮像領域」と記載し、第2カメラ2の撮像領域を「第2撮像領域」と記載する。また、第1カメラ1が撮像する撮像画像SG1を「第1撮像画像SG1」と記載し、第2カメラ2が撮像する撮像画像SG2を「第2撮像画像SG2」と記載する。なお、本実施形態において、第1撮像領域と第2撮像領域とは、隣接するが互いに重ならない。なお、第2カメラ2は、第2撮像装置の一例である。   First, the configuration of the monitoring system 100 according to the fourth embodiment will be described with reference to FIG. FIG. 16 is a diagram illustrating a configuration of the monitoring system 100 according to the fourth embodiment. As shown in FIG. 16, the monitoring system 100 further includes a second camera 2. The second camera 2 captures an image capturing area different from that of the first camera 1. Hereinafter, the imaging area of the first camera 1 is referred to as a “first imaging area”, and the imaging area of the second camera 2 is referred to as a “second imaging area”. Further, the captured image SG1 captured by the first camera 1 is described as “first captured image SG1”, and the captured image SG2 captured by the second camera 2 is described as “second captured image SG2”. In the present embodiment, the first imaging region and the second imaging region are adjacent but do not overlap each other. The second camera 2 is an example of a second imaging device.

図16に示すように、第2カメラ2は、撮像素子11、カメラ通信部12、カメラ記憶部13、及びカメラ制御部14を備える。   As shown in FIG. 16, the second camera 2 includes an image sensor 11, a camera communication unit 12, a camera storage unit 13, and a camera control unit 14.

第2カメラ2が備える撮像素子11、カメラ通信部12、カメラ記憶部13、及びカメラ制御部14の構成は、第1カメラ1が備える撮像素子11、カメラ通信部12、カメラ記憶部13、及びカメラ制御部14の構成と略同一である。このため、第2カメラ2が備える撮像素子11、カメラ通信部12、カメラ記憶部13、及びカメラ制御部14の構成についての説明は省略する。   The configuration of the image sensor 11, the camera communication unit 12, the camera storage unit 13, and the camera control unit 14 included in the second camera 2 includes the image sensor 11, the camera communication unit 12, the camera storage unit 13, and the camera 1 included in the first camera 1. The configuration of the camera control unit 14 is substantially the same. For this reason, the description about the structure of the image pick-up element 11, the camera communication part 12, the camera memory | storage part 13, and the camera control part 14 with which the 2nd camera 2 is provided is abbreviate | omitted.

第2カメラ2が備えるカメラ通信部12は、撮像画像データを装置通信部51へ送信する。また、第2カメラ2のカメラ制御部14は、撮像画像の変化を検知すると、変化検知データを第2カメラ2のカメラ通信部12を介して装置通信部51へ送信する。   The camera communication unit 12 included in the second camera 2 transmits captured image data to the device communication unit 51. Further, when detecting a change in the captured image, the camera control unit 14 of the second camera 2 transmits change detection data to the device communication unit 51 via the camera communication unit 12 of the second camera 2.

次に、図16〜図18を参照して、実施形態4に係る監視システム100の処理について説明する。   Next, processing of the monitoring system 100 according to the fourth embodiment will be described with reference to FIGS.

図17は、実施形態4に係る第1撮像画像SG1及び第2撮像画像SG2の一例を示す図である。図18は、図17に示す被検知体画像3が移動した後の第1撮像画像SG1及び第2撮像画像SG2の一例を示す図である。図17及び図18に示す例では、被検知体は、第1撮像領域から第2撮像領域へ移動する。なお、以下では、表示部S1のうち、第1撮像画像SG1を表示する表示部S1を「第1表示部S11」と記載し、第2撮像画像SG2を表示する表示部S1を「第2表示部S12」と記載する。また、第1表示部S11の原点PSを「第1原点PS1」と記載し、第2表示部S12の原点PSを「第2原点PS2」と記載する。   FIG. 17 is a diagram illustrating an example of the first captured image SG1 and the second captured image SG2 according to the fourth embodiment. FIG. 18 is a diagram illustrating an example of the first captured image SG1 and the second captured image SG2 after the detected object image 3 illustrated in FIG. 17 has moved. In the example illustrated in FIGS. 17 and 18, the detection target moves from the first imaging region to the second imaging region. In the following description, of the display unit S1, the display unit S1 that displays the first captured image SG1 is referred to as “first display unit S11”, and the display unit S1 that displays the second captured image SG2 is referred to as “second display”. Part S12 ". The origin PS of the first display unit S11 is described as “first origin PS1”, and the origin PS of the second display unit S12 is described as “second origin PS2”.

図17及び図18に示すように、被検知体が移動して、第1カメラ1のカメラ制御部14が検知範囲4において撮像画像が変化したことを検知すると、変化検知データが第1カメラ1のカメラ通信部12から装置通信部51へ送信される。変化検知データを装置通信部51が受信すると、装置制御部55は、装置通信部51が第1カメラ1のカメラ通信部12及び第2カメラ2のカメラ通信部12から受信した撮像画像データを装置記憶部54に記憶させるとともに、検知範囲変更処理を実行する。以下、第1カメラ1のカメラ通信部12から送信される撮像画像データを「第1撮像画像データ」と記載し、第2カメラ2のカメラ通信部12から送信される撮像画像データを「第2撮像画像データ」と記載する。   As shown in FIGS. 17 and 18, when the detected object moves and the camera control unit 14 of the first camera 1 detects that the captured image has changed in the detection range 4, the change detection data becomes the first camera 1. Are transmitted from the camera communication unit 12 to the device communication unit 51. When the device communication unit 51 receives the change detection data, the device control unit 55 uses the captured image data received by the device communication unit 51 from the camera communication unit 12 of the first camera 1 and the camera communication unit 12 of the second camera 2. While making it memorize | store in the memory | storage part 54, a detection range change process is performed. Hereinafter, the captured image data transmitted from the camera communication unit 12 of the first camera 1 is referred to as “first captured image data”, and the captured image data transmitted from the camera communication unit 12 of the second camera 2 is referred to as “second image data”. “Captured image data”.

本実施形態に係る検知範囲変更処理において、装置制御部55は、第1撮像画像データ及び第2撮像画像データに基づいて、第1撮像画像SG1又は第2撮像画像SG2が被検知体画像3を含むか否かを判定する。装置制御部55は、第1撮像画像SG1又は第2撮像画像SG2が被検知体画像3を含むと判定すると、第1撮像画像SG1及び第2撮像画像SG2のうち、被検知体画像3を含む撮像画像を撮像するカメラをメインカメラとして決定する。換言すると、装置制御部55は、被検知体の全体を撮像するカメラをメインカメラとして決定する。装置制御部55は、メインカメラを決定すると、図4を参照して説明したように、メインカメラが撮像するメイン撮像画像において、検知範囲4が被検知体画像3を含むように、検知範囲4の位置を変化させる。   In the detection range changing process according to the present embodiment, the device control unit 55 uses the first captured image SG1 or the second captured image SG2 as the detected body image 3 based on the first captured image data and the second captured image data. Judge whether to include. When determining that the first captured image SG1 or the second captured image SG2 includes the detected object image 3, the device control unit 55 includes the detected object image 3 among the first captured image SG1 and the second captured image SG2. The camera that captures the captured image is determined as the main camera. In other words, the device control unit 55 determines a camera that captures an image of the entire detected object as the main camera. When the apparatus control unit 55 determines the main camera, as described with reference to FIG. 4, in the main captured image captured by the main camera, the detection range 4 includes the detection range image 4. Change the position of.

図18に示す例では、第2撮像画像SG2が被検知体画像3を含む。したがって、装置制御部55は、第2カメラ2をメインカメラとして決定する。そして、装置制御部55は、第2カメラ2が撮像する第2撮像画像SG2において被検知体画像3を含むように、検知範囲4の位置を変化させる。詳しくは、装置制御部55は、メインカメラが撮像するメイン撮像画像(第2撮像画像SG2)において被検知体画像3(移動後の被検知体画像3)を構成する1つの画像(第3識別画素G3)と検知範囲4の外郭を構成する1つの画素(第1識別画素G1)との間の相対的な位置関係が、相対位置データによって示される相対位置と一致するように、検知範囲4の位置を変化させる。例えば、装置制御部55は、移動後の被検知体画像3を構成する画素のうち、第2表示部S12の表示面の第2原点PS2から最も近い位置に表示される画素を第3識別画素G3として取得し、第3識別画素G3が表示される位置を取得する。なお、装置制御部55は、第2表示部S12の表示面の第2原点PS2から最も近い位置に表示される画素が複数ある場合、最もY1側に表示される画素を第3識別画素G3として取得する。   In the example illustrated in FIG. 18, the second captured image SG <b> 2 includes the detected object image 3. Therefore, the device control unit 55 determines the second camera 2 as the main camera. And the apparatus control part 55 changes the position of the detection range 4 so that the to-be-detected body image 3 may be included in 2nd captured image SG2 which the 2nd camera 2 images. Specifically, the device control unit 55 includes one image (third identification) that constitutes the detected object image 3 (the detected object image 3 after movement) in the main captured image (second captured image SG2) captured by the main camera. The detection range 4 so that the relative positional relationship between the pixel G3) and one pixel (first identification pixel G1) constituting the outline of the detection range 4 matches the relative position indicated by the relative position data. Change the position of. For example, the device control unit 55 sets, as the third identification pixel, a pixel displayed at a position closest to the second origin PS2 on the display surface of the second display unit S12 among the pixels constituting the detected object image 3 after movement. Obtained as G3, the position where the third identification pixel G3 is displayed is obtained. In addition, when there are a plurality of pixels displayed at the position closest to the second origin PS2 on the display surface of the second display unit S12, the device control unit 55 sets the pixel displayed closest to the Y1 side as the third identification pixel G3. get.

装置制御部55は、第3識別画素G3が表示される位置を示すデータと、装置記憶部54に記憶された相対位置データとに基づいて、第1識別画素G1を表示する位置(座標)を決定する。換言すると、第1識別画素G1と第3識別画素G3との間の相対的な位置関係が相対位置データによって示される相対位置と一致するように、検知範囲4の位置を変化させる。   The device control unit 55 displays the position (coordinates) for displaying the first identification pixel G1 based on the data indicating the position where the third identification pixel G3 is displayed and the relative position data stored in the device storage unit 54. decide. In other words, the position of the detection range 4 is changed so that the relative positional relationship between the first identification pixel G1 and the third identification pixel G3 matches the relative position indicated by the relative position data.

続いて、図16〜図19を参照して、実施形態4に係る検知範囲変更処理に説明する。図19は、実施形態4に係る検知範囲変更処理を示すフローチャートである。   Subsequently, a detection range changing process according to the fourth embodiment will be described with reference to FIGS. FIG. 19 is a flowchart illustrating detection range change processing according to the fourth embodiment.

図19に示すように、装置制御部55は、待機時間が経過したと判定すると(ステップS102:Yes)、装置通信部51が受信した第1撮像画像データ及び第2撮像画像データに基づいて、第1撮像画像SG1又は第2撮像画像SG2の中から認証用画像(被検知体画像3)と合致する画像を探索し、第1撮像画像SG1又は第2撮像画像SG2の中に被検知体画像3が含まれるか否かを判定する(ステップS402)。詳しくは、装置制御部55は、第1撮像画像データ及び第2撮像画像データを解析して、第1撮像画像SG1又は第2撮像画像SG2の中に被検知体画像3が含まれるか否かを判定する。   As illustrated in FIG. 19, when the device control unit 55 determines that the standby time has elapsed (step S102: Yes), based on the first captured image data and the second captured image data received by the device communication unit 51, An image that matches the authentication image (detected object image 3) is searched from the first captured image SG1 or the second captured image SG2, and the detected object image is found in the first captured image SG1 or the second captured image SG2. 3 is determined (step S402). Specifically, the device control unit 55 analyzes the first captured image data and the second captured image data, and determines whether or not the detected object image 3 is included in the first captured image SG1 or the second captured image SG2. Determine.

装置制御部55は、第1撮像画像SG1又は第2撮像画像SG2の中に被検知体画像3が含まれると判定すると(ステップS402:Yes)、メインカメラを決定する(ステップS404)。詳しくは、装置制御部55は、第1撮像画像SG1及び第2撮像画像SG2のうち、被検知体画像3を含む撮像画像を撮像するカメラをメインカメラとして決定する。   When determining that the detected object image 3 is included in the first captured image SG1 or the second captured image SG2 (step S402: Yes), the device control unit 55 determines the main camera (step S404). Specifically, the apparatus control unit 55 determines a camera that captures a captured image including the detected object image 3 out of the first captured image SG1 and the second captured image SG2 as a main camera.

次いで、装置制御部55は、メインカメラが撮像するメイン撮像画像において、検知範囲4が被検知体画像3を含むように、検知範囲4の位置を変化させる(ステップS406)。詳しくは、装置制御部55は、移動後の被検知体画像3を構成する画素の中から第3識別画素G3を取得し、第1識別画素G1と第3識別画素G3との間の相対的な位置関係が相対位置データによって示される相対位置と一致するように、検知範囲4の位置を変化させる。そして、装置制御部55は、変化後の検知範囲4を示す検知範囲データを、装置通信部51を介してメインカメラのカメラ通信部12へ送信する。メインカメラのカメラ制御部14は、カメラ通信部12が変化後の検知範囲4を示す検知範囲データを受信すると、メインカメラのカメラ記憶部13に変化後の検知範囲4を示す検知範囲データを記憶する。あるいは、メインカメラのカメラ記憶部13に記憶された検知範囲データを、変化後の検知範囲4を示す検知範囲データに更新する。この結果、検知範囲変更処理が終了する。   Next, the device control unit 55 changes the position of the detection range 4 so that the detection range 4 includes the detected object image 3 in the main captured image captured by the main camera (step S406). Specifically, the device control unit 55 acquires the third identification pixel G3 from the pixels constituting the detected object image 3 after movement, and the relative relationship between the first identification pixel G1 and the third identification pixel G3. The position of the detection range 4 is changed so that the correct positional relationship matches the relative position indicated by the relative position data. Then, the device control unit 55 transmits detection range data indicating the detection range 4 after the change to the camera communication unit 12 of the main camera via the device communication unit 51. When the camera communication unit 12 receives the detection range data indicating the detection range 4 after the change, the camera control unit 14 of the main camera stores the detection range data indicating the detection range 4 after the change in the camera storage unit 13 of the main camera. To do. Alternatively, the detection range data stored in the camera storage unit 13 of the main camera is updated to detection range data indicating the detection range 4 after the change. As a result, the detection range changing process ends.

一方、装置制御部55は、第1撮像画像SG1又は第2撮像画像SG2に被検知体画像3が含まれないと判定すると(ステップS402:No)、検知範囲変更処理を終了し、持ち去りが発生した旨を示す通知を装置通信部51に通知させる。詳しくは、装置制御部55は、持ち去りが発生した旨を示すメールを、装置通信部51を介して管理者に送信する。あるいは、装置制御部55は、持ち去りが発生した旨を示すメッセージを出力装置53に表示させる。   On the other hand, when the device control unit 55 determines that the detected body image 3 is not included in the first captured image SG1 or the second captured image SG2 (step S402: No), the detection range changing process ends, and the removal is not performed. The apparatus communication unit 51 is notified of a notification indicating that it has occurred. Specifically, the device control unit 55 transmits a mail indicating that the take-away has occurred to the administrator via the device communication unit 51. Alternatively, the device control unit 55 causes the output device 53 to display a message indicating that the carry-out has occurred.

以上、実施形態4について説明した。本実施形態によれば、被検知体を含む撮像領域(第1撮像領域)を撮像するカメラ(第1カメラ1)とは異なるカメラ(第2カメラ2)が撮像する撮像領域(第2撮像領域)に被検知体が移動した場合であっても、検知範囲4を再度設定する必要がない。したがって、管理者による検知範囲4の設定作業の負担を軽減することができる。   The embodiment 4 has been described above. According to the present embodiment, an imaging area (second imaging area) captured by a camera (second camera 2) different from a camera (first camera 1) that captures an imaging area (first imaging area) including the detected object. ), It is not necessary to set the detection range 4 again. Therefore, the burden of the setting work of the detection range 4 by the administrator can be reduced.

なお、本実施形態では、第1撮像画像SG1又は第2撮像画像SG2が被検知体画像3を含む場合を例に説明したが、第1撮像画像SG1及び第2撮像画像SG2の各々が、被検知体の一部を示す画像を含んでもよい。図20は、図17に示す被検知体画像3が移動した後の第1撮像画像SG1及び第2撮像画像SG2の他例を示す図である。例えば、図20に示すように、第1撮像画像SG1及び第2撮像画像SG2の各々が被検知体の互いに異なる部分を示す画像を含んでもよい。この場合、装置制御部55は、第1撮像画像SG1及び第2撮像画像SG2のうちから、被検知体の一部を示す画像の領域が大きい方の撮像画像を判定し、判定した撮像画像を撮像するカメラをメインカメラとして決定する。   In the present embodiment, the case where the first captured image SG1 or the second captured image SG2 includes the detected object image 3 has been described as an example. However, each of the first captured image SG1 and the second captured image SG2 is the target image. You may include the image which shows a part of detection body. FIG. 20 is a diagram illustrating another example of the first captured image SG1 and the second captured image SG2 after the detected object image 3 illustrated in FIG. 17 has moved. For example, as shown in FIG. 20, each of the first captured image SG1 and the second captured image SG2 may include an image showing different portions of the detection target. In this case, the apparatus control unit 55 determines the captured image having the larger area of the image indicating a part of the detected object from the first captured image SG1 and the second captured image SG2, and determines the determined captured image. The camera to be imaged is determined as the main camera.

図20に示す例では、第2撮像画像SG2を撮像する第2カメラ2がメインカメラとして決定される。装置制御部55は、メインカメラを決定すると、移動後の被検知体画像3を構成する画素の中から第3識別画素G3を取得し、第1識別画素G1と第3識別画素G3との間の相対的な位置関係が相対位置データによって示される相対位置と一致するように、第1識別画素G1が表示される位置を決定する。なお、装置制御部55は、変化後の検知範囲4の外郭の一部がメインカメラの撮像領域の外方に位置する場合、図10を参照して説明したように、検知範囲4の全ての外郭が撮像画像SG1の内方に位置するように、検知範囲4を更に移動させてもよい。   In the example illustrated in FIG. 20, the second camera 2 that captures the second captured image SG2 is determined as the main camera. When determining the main camera, the device control unit 55 acquires the third identification pixel G3 from the pixels constituting the detected object image 3 after movement, and between the first identification pixel G1 and the third identification pixel G3. The position where the first identification pixel G1 is displayed is determined so that the relative positional relationship of the first and second pixels coincides with the relative position indicated by the relative position data. In addition, when a part of the outline of the detection range 4 after the change is located outside the imaging region of the main camera, the apparatus control unit 55, as described with reference to FIG. The detection range 4 may be further moved so that the outline is located inside the captured image SG1.

また、本実施形態では、第1撮像領域と第2撮像領域とが互いに重ならない場合を例に説明したが、第1撮像領域と第2撮像領域とはそれらの一部が互いに重なってもよい。図21は、実施形態4に係る第1撮像画像SG1及び第2撮像画像SG2の他例を示す図である。図22は、図21に示す被検知体画像3が移動した後の第1撮像画像SG1及び第2撮像画像SG2の一例を示す図である。   In this embodiment, the case where the first imaging region and the second imaging region do not overlap each other has been described as an example. However, the first imaging region and the second imaging region may partially overlap each other. . FIG. 21 is a diagram illustrating another example of the first captured image SG1 and the second captured image SG2 according to the fourth embodiment. FIG. 22 is a diagram illustrating an example of the first captured image SG1 and the second captured image SG2 after the detected object image 3 illustrated in FIG. 21 has moved.

図21及び図22に示すように、第1撮像領域と第2撮像領域とが重なる場合において、第1撮像画像SG1及び/又は第2撮像画像SG2が移動後の被検知体の一部を示す画像を含む(図22に示す例では、第2撮像画像SG2が移動後の被検知体の一部を示す画像を含む)場合、装置制御部55は、第1撮像画像SG1又は第2撮像画像SG2が被検知体の全部を示す画像(被検知体画像3)を含むように、被検知体を移動させる旨のメッセージを管理者に通知する。換言すると、第1カメラ1及び第2カメラ2のいずれか一方が被検知体の全体を撮像するように、被検知体を移動させる旨のメッセージを管理者に通知する。詳しくは、装置制御部55は、装置通信部51を介してメールで管理者に通知する。例えば、装置制御部55は、装置通信部51を介してメールを管理者へ送信する際に、第1撮像画像データ及び第2撮像画像データをメールに添付する。これにより、管理者は、第1撮像画像SG1及び第2撮像画像SG2を目視することにより、被検知体をどの程度移動させればよいかを容易に知ることができる。   As shown in FIGS. 21 and 22, when the first imaging region and the second imaging region overlap, the first captured image SG1 and / or the second captured image SG2 indicate a part of the detected object after movement. When an image is included (in the example illustrated in FIG. 22, the second captured image SG2 includes an image indicating a part of the detected object after movement), the device control unit 55 performs the first captured image SG1 or the second captured image. The administrator is notified of a message to move the detected object so that SG2 includes an image (detected object image 3) indicating the entire detected object. In other words, the administrator is notified of a message to move the detected object so that either the first camera 1 or the second camera 2 captures the entire detected object. Specifically, the device control unit 55 notifies the administrator by mail via the device communication unit 51. For example, the apparatus control unit 55 attaches the first captured image data and the second captured image data to the mail when transmitting the mail to the administrator via the apparatus communication unit 51. Thereby, the administrator can easily know how much the detected object should be moved by viewing the first captured image SG1 and the second captured image SG2.

以上、本発明の実施形態について、図面(図1〜図22)を参照しながら説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の実施形態で示す構成は、一例であって特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。   The embodiment of the present invention has been described above with reference to the drawings (FIGS. 1 to 22). However, the present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof. The configuration shown in the above embodiment is merely an example and is not particularly limited, and various modifications can be made without departing from the effects of the present invention.

例えば、本発明の実施形態では、制御装置5がサーバーである場合を例に説明したが、本発明はこれに限定されない。本発明は、例えば、制御装置5がパーソナルコンピューターのような管理者が使用する管理者端末であってもよい。あるいは、制御装置5は、サーバーとサーバーに接続する管理者端末とで構成されてもよい。   For example, in the embodiment of the present invention, the case where the control device 5 is a server has been described as an example, but the present invention is not limited to this. In the present invention, for example, the control device 5 may be an administrator terminal used by an administrator such as a personal computer. Alternatively, the control device 5 may be configured with a server and an administrator terminal connected to the server.

また、本発明の実施形態では、監視システム100が2つのカメラを備える構成について説明したが、監視システム100が備えるカメラの数は、2つに限定されない。監視システム100は、3つ以上のカメラを備え得る。   In the embodiment of the present invention, the configuration in which the monitoring system 100 includes two cameras has been described. However, the number of cameras included in the monitoring system 100 is not limited to two. The surveillance system 100 can comprise more than two cameras.

なお、各実施形態1〜4において説明した事項は、適宜組み合わせ可能である。例えば、実施形態2において説明した構成と、実施形態3において説明した構成とを組み合わせてもよい。   In addition, the matter demonstrated in each Embodiment 1-4 can be combined suitably. For example, the configuration described in the second embodiment and the configuration described in the third embodiment may be combined.

本発明は、監視システムの分野に有用である。   The present invention is useful in the field of monitoring systems.

1 第1カメラ
13 カメラ記憶部
14 カメラ制御部
55 装置制御部
100 監視システム
1 First Camera 13 Camera Storage Unit 14 Camera Control Unit 55 Device Control Unit 100 Monitoring System

Claims (7)

被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成す撮像装置であって、
前記撮像画像における検知範囲を示すデータを記憶する記憶部と、
前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する制御部と
を備え、
前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させ、
前記制御部は、前記被検知体が移動する前における前記被検知体画像と前記検知範囲との相対位置に基づいて、前記検知範囲の位置を変化させる、撮像装置。
An imaging device that captures an imaging region including a detected object and generates captured image data indicating a captured image,
A storage unit for storing data indicating a detection range in the captured image;
A controller that detects a change in the captured image in the detection range based on the captured image data, and
When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target,
The said control part is an imaging device which changes the position of the said detection range based on the relative position of the said to-be-detected body image and the said detection range before the said to-be-detected body moves.
被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する撮像装置であって、
前記撮像画像における検知範囲を示すデータを記憶する記憶部と、
前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する制御部と
を備え、
前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させ、
前記制御部は、前記検知範囲の一部が前記撮像画像の外方に位置する場合、前記検知範囲が前記撮像画像に含まれるように、前記検知範囲の位置を変化させる、撮像装置。
An imaging device that captures an imaging region including a detected object and generates captured image data indicating a captured image,
A storage unit for storing data indicating a detection range in the captured image;
A controller that detects a change in the captured image in the detection range based on the captured image data, and
When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target,
When the part of the detection range is located outside the captured image, the control unit changes the position of the detection range so that the detection range is included in the captured image.
被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する撮像装置であって、
前記撮像画像における検知範囲を示すデータを記憶する記憶部と、
前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する制御部と
を備え、
前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させ、
前記制御部は、前記検知範囲の一部が前記撮像画像の外方に位置する場合、前記検知範囲が前記撮像画像に含まれるように、前記検知範囲の大きさを変化させる、撮像装置。
An imaging device that captures an imaging region including a detected object and generates captured image data indicating a captured image,
A storage unit for storing data indicating a detection range in the captured image;
A controller that detects a change in the captured image in the detection range based on the captured image data, and
When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target,
The control unit, when a part of the detection range is located outside the captured image, changes the size of the detection range so that the detection range is included in the captured image.
被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する撮像装置であって、
前記撮像画像における検知範囲を示すデータを記憶する記憶部と、
前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する制御部と
を備え、
前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させ、
前記制御部は、前記被検知体画像の大きさの変化を取得し、前記被検知体画像の大きさの変化に応じて前記検知範囲を変化させる、撮像装置。
An imaging device that captures an imaging region including a detected object and generates captured image data indicating a captured image,
A storage unit for storing data indicating a detection range in the captured image;
A controller that detects a change in the captured image in the detection range based on the captured image data, and
When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target,
The said control part is an imaging device which acquires the change of the magnitude | size of the said to-be-detected body image, and changes the said detection range according to the change of the magnitude | size of the to-be-detected body image.
被検知体を含む撮像領域を撮像して、撮像画像を示す撮像画像データを生成する撮像装置であって、
前記撮像画像における検知範囲を示すデータを記憶する第1記憶部と、
前記撮像画像データに基づいて前記検知範囲における前記撮像画像の変化を検知する制御部と、
ユーザーに情報を通知する通知部と、
前記被検知体の認証用画像を記憶する第2記憶部と
を備え、
前記制御部は、前記検知範囲における前記撮像画像の変化を検知すると、前記被検知体を示す被検知体画像を前記検知範囲が含むように、前記検知範囲を変化させ、
前記制御部は、前記認証用画像と前記被検知体画像との合致率が閾値よりも低い場合、前記被検知体の向きを変更する旨のメッセージを前記通知部に通知させる、撮像装置。
An imaging device that captures an imaging region including a detected object and generates captured image data indicating a captured image,
A first storage unit that stores data indicating a detection range in the captured image;
A control unit that detects a change in the captured image in the detection range based on the captured image data;
A notification unit for notifying the user of information,
A second storage unit that stores an authentication image of the detected object,
When the control unit detects a change in the captured image in the detection range, the control unit changes the detection range so that the detection range includes a detection target image indicating the detection target,
The control unit, when a matching rate between the authentication image and the detected object image is lower than a threshold value, causes the notification unit to notify the notification unit of a message to change the direction of the detected object.
前記認証用画像は、前記被検知体の形状を示す画像を含む、請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the authentication image includes an image indicating a shape of the detection target. 前記認証用画像は、前記被検知体を識別する識別画像を含む、請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the authentication image includes an identification image for identifying the detected object.
JP2019124464A 2019-07-03 2019-07-03 Imaging device Active JP6828775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019124464A JP6828775B2 (en) 2019-07-03 2019-07-03 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019124464A JP6828775B2 (en) 2019-07-03 2019-07-03 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017213694A Division JP6551491B2 (en) 2017-11-06 2017-11-06 Monitoring system

Publications (2)

Publication Number Publication Date
JP2019176518A true JP2019176518A (en) 2019-10-10
JP6828775B2 JP6828775B2 (en) 2021-02-10

Family

ID=68167807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124464A Active JP6828775B2 (en) 2019-07-03 2019-07-03 Imaging device

Country Status (1)

Country Link
JP (1) JP6828775B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62296686A (en) * 1986-06-16 1987-12-23 Matsushita Electric Works Ltd Abnormality monitoring device
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2003228776A (en) * 2002-02-05 2003-08-15 Meidensha Corp Invading object monitoring device
JP2016085487A (en) * 2014-10-22 2016-05-19 キヤノン株式会社 Information processing device, information processing method and computer program
JP2019087840A (en) * 2017-11-06 2019-06-06 京セラドキュメントソリューションズ株式会社 Monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62296686A (en) * 1986-06-16 1987-12-23 Matsushita Electric Works Ltd Abnormality monitoring device
JP2001243472A (en) * 2000-03-01 2001-09-07 Matsushita Electric Works Ltd Image processor
JP2003228776A (en) * 2002-02-05 2003-08-15 Meidensha Corp Invading object monitoring device
JP2016085487A (en) * 2014-10-22 2016-05-19 キヤノン株式会社 Information processing device, information processing method and computer program
JP2019087840A (en) * 2017-11-06 2019-06-06 京セラドキュメントソリューションズ株式会社 Monitoring system

Also Published As

Publication number Publication date
JP6828775B2 (en) 2021-02-10

Similar Documents

Publication Publication Date Title
JP6626954B2 (en) Imaging device and focus control method
US11122208B2 (en) Monitoring system
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
CN112217998B (en) Imaging device, information processing device, control method thereof, and storage medium
US10026207B2 (en) Image display device, image display method and storage medium
US10055081B2 (en) Enabling visual recognition of an enlarged image
JP4710734B2 (en) Pointing device, pointing position detection method, and program
US10277544B2 (en) Information processing apparatus which cooperate with other apparatus, and method for controlling the same
US20180098200A1 (en) Position determination device, position determining method, and storage medium
JP7059054B2 (en) Image processing equipment, image processing methods and programs
JP5885395B2 (en) Image capturing apparatus and image data recording method
US20190370992A1 (en) Image processing apparatus, information processing apparatus, information processing method, and recording medium
JPWO2009110204A1 (en) Device selection control device
JP6828775B2 (en) Imaging device
JP6787296B2 (en) Monitoring system
US20200327329A1 (en) Monitoring system
JP6237028B2 (en) Projection apparatus, projection method, and information processing system
US9041973B2 (en) Support system, control device, image forming apparatus, and support method utilizing cards on which written information is printed
JP2014131211A (en) Imaging apparatus and image monitoring system
US11870965B2 (en) Image forming system capable of receiving and transmitting captured image with operation position data and further remotely operating image forming apparatus, and image forming apparatus
JP6501945B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2013211742A (en) Imaging apparatus
US20230298299A1 (en) Video conference device and video conference system
JP2019068155A (en) Imaging device and control method for imaging device
CN102547233B (en) Image display, image display system and method for displaying image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6828775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150