JP2012109733A - Monitoring system and monitoring apparatus - Google Patents

Monitoring system and monitoring apparatus Download PDF

Info

Publication number
JP2012109733A
JP2012109733A JP2010256089A JP2010256089A JP2012109733A JP 2012109733 A JP2012109733 A JP 2012109733A JP 2010256089 A JP2010256089 A JP 2010256089A JP 2010256089 A JP2010256089 A JP 2010256089A JP 2012109733 A JP2012109733 A JP 2012109733A
Authority
JP
Japan
Prior art keywords
moving object
monitoring
unit
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010256089A
Other languages
Japanese (ja)
Other versions
JP5664161B2 (en
Inventor
Toru Murase
亨 村瀬
Shigenori Takagishi
成典 高岸
Miki Kusao
幹 草尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2010256089A priority Critical patent/JP5664161B2/en
Publication of JP2012109733A publication Critical patent/JP2012109733A/en
Application granted granted Critical
Publication of JP5664161B2 publication Critical patent/JP5664161B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring system that can automatically track and image an intruder into a monitored area, and even when a plurality of intruders intrude simultaneously, can image all the plurality of intruders.SOLUTION: A monitoring system 5 includes a monitoring apparatus 3 and a display device 6. The monitoring apparatus 3 has: wide angle cameras 11A, 11B for imaging a predetermined monitored area 4; a telephoto camera 12A for, when a moving object is included in pickup images captured by the wide angle cameras 11A, 11B, automatically tracking and imaging the moving object to acquire an enlarged image 300 of the moving object and display it on the display device 6; and a telephoto camera 12B capable of being remote-controlled by an operator to acquire an image of a desired region in the monitored area 4 and display it on the display device 6 independently of the wide angle cameras 11A, 11B and the telephoto camera 12A.

Description

本発明は、監視システム及び監視装置に関し、特に、所定の監視エリアへの侵入者を監視するための監視システム及び監視装置に関する。   The present invention relates to a monitoring system and a monitoring device, and more particularly to a monitoring system and a monitoring device for monitoring an intruder into a predetermined monitoring area.

監視カメラによって所定の監視エリアを撮影することにより、監視エリアへの侵入者を監視する監視装置が広く実用化されている。このような監視装置においては、一般的に、監視カメラによって撮影した監視エリアの映像をモニタに表示し、表示された映像を監視者が目視することによって、監視エリアへの侵入者が監視される。   2. Description of the Related Art A monitoring device that monitors an intruder into a monitoring area by photographing a predetermined monitoring area with a monitoring camera has been widely put into practical use. In such a monitoring apparatus, generally, an intruder into the monitoring area is monitored by displaying a video of the monitoring area captured by the monitoring camera on the monitor and viewing the displayed video by the monitoring person. .

下記特許文献1には、パンチルト機能及びズーム機能が搭載された監視カメラが開示されている。当該監視カメラは、動体を検出すると、その動体の大きさ及び動きベクトルに基づいて、ズームレンズの画角の調整を行うとともに、パンチルタによる撮影範囲の調整を行う。   Patent Document 1 listed below discloses a surveillance camera equipped with a pan / tilt function and a zoom function. When the surveillance camera detects a moving object, the surveillance camera adjusts the angle of view of the zoom lens based on the size and motion vector of the moving object, and also adjusts the shooting range by the pantilter.

特許第4293236号公報Japanese Patent No. 4293236

しかしながら、モニタの表示映像を監視者が目視することによる侵入者の監視では、監視者は常にモニタを注視しているとは限らないため、監視者が侵入者を見落とす可能性がある。特に、施設の周囲に複数の監視カメラが設置されており、複数の監視カメラの映像を一人の監視者によって監視する場合等においては、監視者が侵入者を見落とす可能性は高まる。   However, in the monitoring of an intruder when the monitor visually observes the display image on the monitor, the monitor does not always watch the monitor, so the monitor may miss the intruder. In particular, when a plurality of surveillance cameras are installed around the facility and the images of the plurality of surveillance cameras are monitored by a single supervisor, the possibility that the supervisor overlooks the intruder increases.

また、上記特許文献1に開示された監視カメラによると、パンチルト制御及びズーム制御によって侵入者を自動追跡して撮影することは可能であるが、監視エリア内に複数の侵入者が同時に侵入した場合の対策が施されていないため、複数の侵入者の全員を漏れなく撮影することは不可能である。例えば、監視エリア内に二人の侵入者が同時に侵入した場合において、監視カメラによって一方の侵入者に対する自動追跡撮影が開始されると、他方の侵入者の撮影が行われない。従って、監視カメラの機能としては不十分である。   In addition, according to the surveillance camera disclosed in Patent Document 1, it is possible to automatically track an intruder by pan / tilt control and zoom control, but when a plurality of intruders enter the surveillance area at the same time. Therefore, it is impossible to capture all of the intruders without omission. For example, when two intruders intrude into the surveillance area at the same time, when the automatic tracking photographing of one intruder is started by the surveillance camera, the other intruder is not photographed. Therefore, the function of the surveillance camera is insufficient.

本発明はかかる事情に鑑みて成されたものであり、監視エリアへの侵入者を自動追跡して撮影可能であるとともに、複数の侵入者が同時に侵入した場合であっても、当該複数の侵入者を漏れなく撮影することが可能な、監視システム及び監視装置を得ることを目的とするものである。   The present invention has been made in view of such circumstances, and it is possible to automatically track an intruder into a surveillance area and photograph it, and even when a plurality of intruders invades at the same time, the plurality of intrusions It is an object of the present invention to obtain a monitoring system and a monitoring apparatus capable of photographing a person without omission.

本発明の第1の態様に係る監視システムは、監視装置と、表示装置と、を備え、前記監視装置は、所定の監視エリアを撮影する、第1の撮影手段と、前記第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該移動物体を自動追跡して撮影することにより、当該移動物体の拡大画像を取得して前記表示装置に表示する、第2の撮影手段と、オペレータによって遠隔操作されることにより、前記第1の撮影手段及び前記第2の撮影手段とは独立して、前記監視エリア内の所望箇所の画像を取得して前記表示装置に表示可能な、第3の撮影手段と、を有することを特徴とするものである。   A monitoring system according to a first aspect of the present invention includes a monitoring device and a display device, and the monitoring device images a first monitoring area and the first imaging unit. When a moving object is included in the captured image captured by the above, a magnified image of the moving object is acquired and displayed on the display device by automatically tracking and capturing the moving object. By remotely operating the image capturing unit and an operator, an image of a desired location in the monitoring area is acquired independently of the first image capturing unit and the second image capturing unit, and the image is displayed on the display device. And a third photographing means capable of displaying.

第1の態様に係る監視システムによれば、第2の撮影手段は、第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該移動物体を自動追跡して撮影することにより、当該移動物体の拡大画像を取得して表示装置に表示する。このように、監視エリアへの侵入者を第2の撮影手段によって自動追跡して撮影することにより、侵入者の拡大画像を漏れなく撮影することが可能となる。また、第3の撮影手段は、オペレータによって遠隔操作されることにより、前記第1の撮影手段及び前記第2の撮影手段とは独立して、監視エリア内の所望箇所の画像を取得して表示装置に表示する。従って、複数の侵入者が同時に監視エリアに侵入した場合であっても、第2の撮影手段によって撮影している侵入者とは異なる侵入者を第3の撮影手段によって撮影することができる。その結果、複数の侵入者を漏れなく撮影することが可能となる。   According to the monitoring system of the first aspect, the second imaging unit automatically tracks the moving object when the moving image is captured in the captured image captured by the first imaging unit. By photographing, an enlarged image of the moving object is acquired and displayed on the display device. As described above, the intruder into the monitoring area is automatically tracked and photographed by the second photographing means, so that an enlarged image of the intruder can be photographed without omission. Further, the third imaging unit is remotely operated by an operator to acquire and display an image of a desired location in the monitoring area independently of the first imaging unit and the second imaging unit. Display on the device. Therefore, even when a plurality of intruders enter the monitoring area at the same time, an intruder different from the intruder that is photographed by the second photographing means can be photographed by the third photographing means. As a result, a plurality of intruders can be photographed without omission.

本発明の第2の態様に係る監視システムは、第1の態様に係る監視システムにおいて特に、前記第3の撮影手段は、オペレータの遠隔操作による所望箇所の撮影と、自動追跡による移動物体の撮影とを切り換え可能であることを特徴とするものである。   The monitoring system according to the second aspect of the present invention is the monitoring system according to the first aspect, in particular, the third imaging means is for imaging a desired location by remote operation of an operator and imaging a moving object by automatic tracking. And can be switched.

第2の態様に係る監視システムによれば、第3の撮影手段は、オペレータの遠隔操作による所望箇所の撮影と、自動追跡による移動物体の撮影とを切り換え可能である。従って、複数の侵入者が同時に監視エリアに侵入した場合に、第2及び第3の撮影手段を用いて複数の侵入者を自動追跡して撮影するという動作と、第2の撮影手段によって侵入者を自動追跡して撮影しつつ、第3の撮影手段によって他の所望の侵入者を撮影するという動作とを切り換えることができるため、ユーザの利便性を向上することができる。   According to the monitoring system of the second aspect, the third imaging unit can switch between imaging of a desired location by remote operation of the operator and imaging of a moving object by automatic tracking. Therefore, when a plurality of intruders intrude into the monitoring area at the same time, an operation of automatically tracking and photographing a plurality of intruders using the second and third photographing means, and an intruder by the second photographing means. Since the third image capturing unit can be switched to the operation of capturing another desired intruder while automatically tracking and capturing the image, the convenience of the user can be improved.

本発明の第3の態様に係る監視システムは、第1又は第2の態様に係る監視システムにおいて特に、前記第2の撮影手段によって撮影されている前記監視エリア内の位置と、前記第3の撮影手段によって撮影されている前記監視エリア内の位置と、前記監視エリア内における前記移動物体の位置と、を示す位置情報が、前記表示装置にさらに表示されることを特徴とするものである。   The monitoring system according to the third aspect of the present invention is the monitoring system according to the first or second aspect, in particular, the position in the monitoring area being imaged by the second imaging means, and the third Position information indicating the position in the monitoring area being photographed by the photographing means and the position of the moving object in the monitoring area is further displayed on the display device.

第3の態様に係る監視システムによれば、第2の撮影手段によって撮影されている監視エリア内の位置と、第3の撮影手段によって撮影されている監視エリア内の位置と、監視エリア内における移動物体の位置と、を示す位置情報が、表示装置に表示される。従って、オペレータは、当該位置情報に基づいて、第3の撮影手段によって次に撮影すべき侵入者を容易に特定することができるため、複数の侵入者を漏れなく撮影することが可能となる。   According to the monitoring system according to the third aspect, the position in the monitoring area photographed by the second photographing means, the position in the monitoring area photographed by the third photographing means, and in the monitoring area Position information indicating the position of the moving object is displayed on the display device. Therefore, the operator can easily identify the intruder to be photographed next by the third photographing means based on the position information, and thus can photograph a plurality of intruders without omission.

本発明の第4の態様に係る監視システムは、第1〜第3のいずれか一つの態様に係る監視システムにおいて特に、前記第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該撮影画像のうち当該移動物体に対応する画像領域に関して、赤外域を含む特定の複数の波長のスペクトルを検出し、当該検出の結果に基づいて前記移動物体の材質を分析する材質分析手段と、前記移動物体の材質に関するパラメータを含めて、当該移動物体の特徴量を表す特徴データを生成するデータ生成手段と、をさらに備え、前記特徴データに基づいて前記移動物体の自動追跡が行われることを特徴とするものである。   The monitoring system according to a fourth aspect of the present invention is the monitoring system according to any one of the first to third aspects, and particularly includes a moving object in a photographed image photographed by the first photographing means. In the case of an image region corresponding to the moving object in the captured image, a spectrum of specific wavelengths including an infrared region is detected, and the material of the moving object is analyzed based on the detection result. Material analysis means; and data generation means for generating feature data representing the feature amount of the moving object including parameters relating to the material of the moving object, and automatically tracking the moving object based on the feature data Is performed.

第4の態様に係る監視システムによれば、材質分析手段は、撮影画像のうち移動物体に対応する画像領域に関して、赤外域を含む特定の複数の波長のスペクトルを検出し、当該検出の結果に基づいて移動物体の材質を分析する。従って、材質分析の結果、移動物体に対応する画像領域内に人肌や化学繊維等が含まれている場合には、その移動物体は人間であると識別することができる。その結果、所定の監視エリア内に移動物体が含まれている場合に、その移動物体が人間であるかそれ以外の動物等であるかを正確に識別することが可能となる。また、データ生成手段は、材質分析手段によって分析された移動物体の材質に関するパラメータを含めて、当該移動物体の特徴量を表す特徴データを生成する。そして、当該特徴データに基づいて移動物体の自動追跡が行われる。従って、監視エリア内で移動する個々の移動物体を、各移動物体に関する特徴データに基づいて正確に追跡することができる。   According to the monitoring system according to the fourth aspect, the material analysis means detects the spectrum of a plurality of specific wavelengths including the infrared region with respect to the image region corresponding to the moving object in the captured image, and uses the result of the detection as a result. Based on this, the material of the moving object is analyzed. Therefore, when human skin, chemical fiber, or the like is included in the image area corresponding to the moving object as a result of the material analysis, the moving object can be identified as a human. As a result, when a moving object is included in a predetermined monitoring area, it is possible to accurately identify whether the moving object is a human being or an animal other than that. In addition, the data generation unit generates feature data representing the feature amount of the moving object, including parameters related to the material of the moving object analyzed by the material analysis unit. Then, automatic tracking of the moving object is performed based on the feature data. Therefore, it is possible to accurately track individual moving objects that move within the monitoring area based on the feature data regarding each moving object.

本発明の第5の態様に係る監視システムは、第4の態様に係る監視システムにおいて特に、複数の前記監視装置によって複数の前記監視エリアが撮影され、前記特徴データに基づいて、異なる監視エリアを跨ぐ前記移動物体の自動追跡が行われることを特徴とするものである。   The monitoring system according to a fifth aspect of the present invention is the monitoring system according to the fourth aspect, in particular, a plurality of the monitoring areas are photographed by a plurality of the monitoring devices, and different monitoring areas are selected based on the feature data. The moving object straddling is automatically tracked.

第5の態様に係る監視システムによれば、各移動物体に関する特徴データに基づくことにより、異なる監視エリアを跨ぐ移動物体の自動追跡を正確に行うことが可能となる。   According to the monitoring system according to the fifth aspect, based on the feature data regarding each moving object, automatic tracking of the moving object across different monitoring areas can be performed accurately.

本発明の第6の態様に係る監視装置は、所定の監視エリアを撮影する、第1の撮影手段と、前記第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該移動物体を自動追跡して撮影することにより、当該移動物体の拡大画像を取得する、第2の撮影手段と、オペレータによって遠隔操作されることにより、前記第1の撮影手段及び前記第2の撮影手段とは独立して、前記監視エリア内の所望箇所の画像を取得する、第3の撮影手段と、を備えることを特徴とするものである。   The monitoring apparatus according to the sixth aspect of the present invention includes a first imaging unit that images a predetermined monitoring area, and a moving object included in the captured image captured by the first imaging unit. In addition, the moving object is automatically tracked and photographed to acquire an enlarged image of the moving object, and the first photographing means and the first photographing means are remotely operated by an operator. Independently of the second photographing means, a third photographing means for obtaining an image of a desired location in the monitoring area is provided.

第6の態様に係る監視装置によれば、第2の撮影手段は、第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該移動物体を自動追跡して撮影することにより、当該移動物体の拡大画像を取得する。このように、監視エリアへの侵入者を第2の撮影手段によって自動追跡して撮影することにより、侵入者の拡大画像を漏れなく撮影することが可能となる。また、第3の撮影手段は、オペレータによって遠隔操作されることにより、前記第1の撮影手段及び前記第2の撮影手段とは独立して、監視エリア内の所望箇所の画像を取得する。従って、複数の侵入者が同時に監視エリアに侵入した場合であっても、第2の撮影手段によって撮影している侵入者とは異なる侵入者を第3の撮影手段によって撮影することができる。その結果、複数の侵入者を漏れなく撮影することが可能となる。   According to the monitoring apparatus of the sixth aspect, the second imaging unit automatically tracks the moving object when the moving image is captured by the first imaging unit. An enlarged image of the moving object is acquired by photographing. As described above, the intruder into the monitoring area is automatically tracked and photographed by the second photographing means, so that an enlarged image of the intruder can be photographed without omission. In addition, the third imaging unit is remotely operated by an operator, and acquires an image of a desired location in the monitoring area independently of the first imaging unit and the second imaging unit. Therefore, even when a plurality of intruders enter the monitoring area at the same time, an intruder different from the intruder that is photographed by the second photographing means can be photographed by the third photographing means. As a result, a plurality of intruders can be photographed without omission.

本発明によれば、監視エリアへの侵入者を自動追跡して撮影可能であるとともに、複数の侵入者が同時に侵入した場合であっても、当該複数の侵入者を漏れなく撮影することが可能な、監視システム及び監視装置を得ることができる。   According to the present invention, intruders can be automatically tracked and photographed, and even when a plurality of intruders enter at the same time, the plurality of intruders can be photographed without omission. A monitoring system and a monitoring device can be obtained.

本発明の実施の形態に係る監視装置の使用状況の一例を示す図である。It is a figure which shows an example of the usage condition of the monitoring apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る監視システムの全体構成を概略的に示す図である。It is a figure showing roughly the whole surveillance system composition concerning an embodiment of the invention. 監視装置の外観を模式的に示す図である。It is a figure which shows typically the external appearance of a monitoring apparatus. 監視装置の機能を概略的に示すブロック図である。It is a block diagram which shows the function of a monitoring apparatus roughly. 図4に示した各部の構成を具体的に示す図である。FIG. 5 is a diagram specifically illustrating a configuration of each unit illustrated in FIG. 4. 受光素子部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of a light receiving element part. 受光素子部の構成の第2の例を示す図である。It is a figure which shows the 2nd example of a structure of a light receiving element part. 波長選択フィルタ及び受光素子部の構成の第1の例を示す図である。It is a figure which shows the 1st example of a structure of a wavelength selection filter and a light receiving element part. 波長選択フィルタ及び受光素子部の構成の第2の例を示す図である。It is a figure which shows the 2nd example of a structure of a wavelength selection filter and a light receiving element part. 材質分析部の構成を示すブロック図である。It is a block diagram which shows the structure of a material analysis part. 監視装置の全体動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of a monitoring apparatus. 広角カメラによってそれぞれ撮影された撮影画像を示す図である。It is a figure which shows the picked-up image each image | photographed with the wide angle camera. 材質識別部による材質の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of the material by a material identification part. 材質識別部による材質の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of the material by a material identification part. 望遠カメラによって侵入者を撮影した拡大画像を示す図である。It is a figure which shows the enlarged image which image | photographed the intruder with the telephoto camera. 位置特定部によって作成された位置情報マップの一例を示す図である。It is a figure which shows an example of the position information map produced by the position specific | specification part. 表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display apparatus. 表示装置に表示される画像の他の例を示す図である。It is a figure which shows the other example of the image displayed on a display apparatus. 通信基地局に複数の監視装置が設置された状況を示す図である。It is a figure which shows the condition where the some monitoring apparatus was installed in the communication base station.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、異なる図面において同一の符号を付した要素は、同一又は相応する要素を示すものとする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the element which attached | subjected the same code | symbol in different drawing shall show the same or corresponding element.

図1は、本発明の実施の形態に係る監視装置3の使用状況の一例を示す図である。通信基地局1が山中に設置されており、通信基地局1の周囲はフェンス2で取り囲まれている。この例において、監視装置3は、所定の撮影エリアとして、フェンス2を含む監視エリア4を撮影することにより、フェンス2を乗り越えて通信基地局1へ侵入しようとする侵入者を監視する用途で使用される。なお、図1の例では通信基地局1に一つの監視装置3のみが設置されているが、後述の図19に示すように、通信基地局1の周囲を死角無く監視するために、複数の監視装置3A〜3Dが設置されてもよい。   FIG. 1 is a diagram illustrating an example of a usage state of the monitoring device 3 according to the embodiment of the present invention. A communication base station 1 is installed in the mountains, and the communication base station 1 is surrounded by a fence 2. In this example, the monitoring device 3 is used for the purpose of monitoring an intruder trying to get over the fence 2 and enter the communication base station 1 by shooting the monitoring area 4 including the fence 2 as a predetermined shooting area. Is done. In the example of FIG. 1, only one monitoring device 3 is installed in the communication base station 1. However, as shown in FIG. 19 described later, in order to monitor the periphery of the communication base station 1 without blind spots, Monitoring devices 3A to 3D may be installed.

図2は、本発明の実施の形態に係る監視システム5の全体構成を概略的に示す図である。監視システム5は、監視装置3と、監視装置3によって撮影された画像を表示する液晶ディスプレイ等の表示装置6とを備えている。表示装置6は、遠隔地の監視センタ内(又は通信基地局1内)に設置されており、表示装置6に表示された画像はオペレータ(監視者)によって目視可能である。また、監視センタ内には、監視装置3を遠隔操作するためにオペレータが操作可能な操作部7が設置されている。   FIG. 2 is a diagram schematically showing the overall configuration of the monitoring system 5 according to the embodiment of the present invention. The monitoring system 5 includes a monitoring device 3 and a display device 6 such as a liquid crystal display that displays an image captured by the monitoring device 3. The display device 6 is installed in a remote monitoring center (or in the communication base station 1), and an image displayed on the display device 6 is visible by an operator (monitoring person). An operation unit 7 that can be operated by an operator to remotely operate the monitoring device 3 is installed in the monitoring center.

図3は、監視装置3の外観を模式的に示す図である。ステレオカメラとして機能する一対の広角カメラ11A,11Bと、望遠カメラ12A,12Bと、制御装置13とが、フレーム10に取り付けられている。広角カメラ11A,11Bは、監視エリア4の全体を撮影可能なように、視野が固定されている。望遠カメラ12A,12Bは、例えば、パンチルト機能及びズーム機能を搭載したPTZカメラである。広角カメラ11A,11B及び望遠カメラ12A,12Bは、対象物からの太陽光の反射光を受光することによって対象物を撮影する。但し、監視装置3においては、夜間における撮影をも可能とすべく、ハロゲン光又は赤外光を監視エリア4に向けて照射する光照射器を備えてもよい。   FIG. 3 is a diagram schematically illustrating the appearance of the monitoring device 3. A pair of wide-angle cameras 11A and 11B that function as stereo cameras, telephoto cameras 12A and 12B, and a control device 13 are attached to the frame 10. The wide-angle cameras 11A and 11B have a fixed field of view so that the entire monitoring area 4 can be photographed. The telephoto cameras 12A and 12B are, for example, PTZ cameras equipped with a pan / tilt function and a zoom function. The wide-angle cameras 11A and 11B and the telephoto cameras 12A and 12B capture the object by receiving reflected sunlight from the object. However, the monitoring device 3 may be provided with a light irradiator for irradiating the monitoring area 4 with halogen light or infrared light so as to enable photographing at night.

図4は、監視装置3の機能を概略的に示すブロック図である。監視装置3は、撮影部21、分析部22、識別部23、特徴データ生成部24、及びデータ処理部40を備えている。撮影部21は、図3に示した広角カメラ11A,11B及び望遠カメラ12A,12Bを有している。また、図5は、図4に示した各部の構成を具体的に示す図である。   FIG. 4 is a block diagram schematically showing the function of the monitoring device 3. The monitoring device 3 includes an imaging unit 21, an analysis unit 22, an identification unit 23, a feature data generation unit 24, and a data processing unit 40. The photographing unit 21 includes the wide-angle cameras 11A and 11B and the telephoto cameras 12A and 12B shown in FIG. FIG. 5 is a diagram specifically illustrating the configuration of each unit illustrated in FIG. 4.

図4,5を参照して、撮影部21は、広角カメラ11Aに対応する光学系31A、分岐部32A、受光素子部33A、波長選択フィルタ34A、及び受光素子部35Aを有しており、また、広角カメラ11Bに対応する光学系31B、分岐部32B、受光素子部33B、波長選択フィルタ34B、及び受光素子部35Bを有している。なお、以下の説明では、広角カメラ11A,11Bを総称して「広角カメラ11」と称し、光学系31A,31Bを総称して「光学系31」と称し、分岐部32A,32Bを総称して「分岐部32」と称し、受光素子部33A,33Bを総称して「受光素子部33」と称し、波長選択フィルタ34A,34Bを総称して「波長選択フィルタ34」と称し、受光素子部35A,35Bを総称して「受光素子部35」と称する。   4 and 5, the photographing unit 21 includes an optical system 31A corresponding to the wide-angle camera 11A, a branching unit 32A, a light receiving element unit 33A, a wavelength selection filter 34A, and a light receiving element unit 35A. And an optical system 31B corresponding to the wide-angle camera 11B, a branching section 32B, a light receiving element section 33B, a wavelength selection filter 34B, and a light receiving element section 35B. In the following description, the wide-angle cameras 11A and 11B are collectively referred to as “wide-angle camera 11”, the optical systems 31A and 31B are collectively referred to as “optical system 31”, and the branch portions 32A and 32B are collectively referred to. The light receiving element portions 33A and 33B are collectively referred to as “light receiving element portion 33”, the wavelength selection filters 34A and 34B are collectively referred to as “wavelength selection filter 34”, and the light receiving element portion 35A. , 35B are collectively referred to as “light receiving element portion 35”.

分析部22は、広角カメラ11Aに対応する動体検出部36A、抽出部37A、形状分析部38A、及び材質分析部39Aと、広角カメラ11Bに対応する動体検出部36B、抽出部37B、形状分析部38B、及び材質分析部39Bとを有している。   The analysis unit 22 includes a moving object detection unit 36A, an extraction unit 37A, a shape analysis unit 38A, and a material analysis unit 39A corresponding to the wide-angle camera 11A, and a moving object detection unit 36B, an extraction unit 37B, and a shape analysis unit corresponding to the wide-angle camera 11B. 38B and a material analysis unit 39B.

識別部23は、広角カメラ11Aに対応する識別部23Aと、広角カメラ11Bに対応する識別部23Bとを有している。   The identification unit 23 includes an identification unit 23A corresponding to the wide-angle camera 11A and an identification unit 23B corresponding to the wide-angle camera 11B.

特徴データ生成部24は、広角カメラ11Aに対応する特徴データ生成部24Aと、広角カメラ11Bに対応する特徴データ生成部24Bとを有している。   The feature data generation unit 24 includes a feature data generation unit 24A corresponding to the wide-angle camera 11A and a feature data generation unit 24B corresponding to the wide-angle camera 11B.

データ処理部40は、同一対象特定部41、個別対象特定部42、位置特定部43、及び追跡処理部44を有している。   The data processing unit 40 includes an identical target specifying unit 41, an individual target specifying unit 42, a position specifying unit 43, and a tracking processing unit 44.

図6は、受光素子部33,35の構成の第1の例を示す図である。図6の(A)には受光素子部33の構成を示しており、図6の(B)には受光素子部35の構成を示している。受光素子部33は、CCD等の複数の受光素子が行列状に配列された構成を有している。受光素子部35は、InGaAs等を用いた複数の受光素子が行列状に配列された構成を有している。図6の例では、受光素子部33の画素数と受光素子部35の画素数とは互いに等しく、受光素子部33,35の各画素は一対一に対応する。つまり、受光素子部33,35の空間分解能は互いに等しい。   FIG. 6 is a diagram illustrating a first example of the configuration of the light receiving element portions 33 and 35. FIG. 6A shows the configuration of the light receiving element portion 33, and FIG. 6B shows the configuration of the light receiving element portion 35. The light receiving element section 33 has a configuration in which a plurality of light receiving elements such as CCDs are arranged in a matrix. The light receiving element portion 35 has a configuration in which a plurality of light receiving elements using InGaAs or the like are arranged in a matrix. In the example of FIG. 6, the number of pixels of the light receiving element portion 33 and the number of pixels of the light receiving element portion 35 are equal to each other, and each pixel of the light receiving element portions 33 and 35 corresponds to one to one. That is, the spatial resolutions of the light receiving element portions 33 and 35 are equal to each other.

図7は、受光素子部33,35の構成の第2の例を示す図である。図6と同様に、図7の(A)には受光素子部33の構成を示しており、図7の(B)には受光素子部35の構成を示している。図7の例では、後述する材質分析部39A,39Bにおける演算処理の負荷を低減すべく、受光素子部35の画素数は受光素子部33の画素数より少なく設定されている。つまり、受光素子部35の空間分解能は受光素子部33の空間分解能より低い。   FIG. 7 is a diagram illustrating a second example of the configuration of the light receiving element portions 33 and 35. As in FIG. 6, FIG. 7A shows the configuration of the light receiving element portion 33, and FIG. 7B shows the configuration of the light receiving element portion 35. In the example of FIG. 7, the number of pixels of the light receiving element unit 35 is set to be smaller than the number of pixels of the light receiving element unit 33 in order to reduce the processing load in the material analyzing units 39A and 39B described later. That is, the spatial resolution of the light receiving element unit 35 is lower than the spatial resolution of the light receiving element unit 33.

図5を参照して、対象物からの反射光は、光学系31によって受光素子部33上に導光される。受光素子部33を構成する各受光素子は、可視光の波長域における反射光の受光強度に応じた大きさの電気信号を出力する。また、広角カメラ11によって撮影された画像は、図2に示した表示装置6に表示される。   With reference to FIG. 5, the reflected light from the object is guided onto the light receiving element portion 33 by the optical system 31. Each light receiving element constituting the light receiving element unit 33 outputs an electrical signal having a magnitude corresponding to the received light intensity of the reflected light in the visible light wavelength range. Further, an image taken by the wide-angle camera 11 is displayed on the display device 6 shown in FIG.

分岐部32は、プリズム又はハーフミラー等であり、光学系31と受光素子部33との間に配置されている。光学系31から受光素子部33に向かう反射光は、分岐部32によって受光素子部35に向けて分岐される。分岐された反射光は、波長選択フィルタ34を介して受光素子部35上に導光される。受光素子部35を構成する各受光素子は、赤外光の波長域における反射光の受光強度に応じた大きさの電気信号を出力する。   The branching unit 32 is a prism or a half mirror, and is arranged between the optical system 31 and the light receiving element unit 33. The reflected light traveling from the optical system 31 toward the light receiving element unit 33 is branched toward the light receiving element unit 35 by the branching unit 32. The branched reflected light is guided onto the light receiving element portion 35 through the wavelength selection filter 34. Each light receiving element constituting the light receiving element unit 35 outputs an electrical signal having a magnitude corresponding to the received light intensity of the reflected light in the wavelength range of infrared light.

なお、分岐部32の構成としては、固定のプリズム又はハーフミラー等を用いる構成の代わりに、挿退可能な反射鏡を光学系31と受光素子部33との間に配置する構成としてもよい。第1のタイミングにおいて、光学系31と受光素子部33との間の光路上から上記反射鏡を退避させる。これにより、対象物からの反射光が受光素子部33上に導光される。また、第2のタイミングにおいて、光学系31と受光素子部33との間の光路上に上記反射鏡を挿入する。光学系31から受光素子部33に向かう反射光は、反射鏡によって受光素子部35に向けて反射される。これにより、対象物からの反射光が受光素子部35上に導光される。上記第1及び第2のタイミングは、所定の微小時間間隔で交互に繰り返される。   In addition, as a structure of the branch part 32, it is good also as a structure which arrange | positions the reflective mirror which can be inserted or retracted between the optical system 31 and the light receiving element part 33 instead of the structure which uses a fixed prism or a half mirror. At the first timing, the reflecting mirror is retracted from the optical path between the optical system 31 and the light receiving element unit 33. Thereby, the reflected light from the object is guided onto the light receiving element portion 33. Further, at the second timing, the reflecting mirror is inserted on the optical path between the optical system 31 and the light receiving element portion 33. The reflected light from the optical system 31 toward the light receiving element portion 33 is reflected toward the light receiving element portion 35 by the reflecting mirror. Thereby, the reflected light from the object is guided onto the light receiving element portion 35. The first and second timings are alternately repeated at predetermined minute time intervals.

図8は、波長選択フィルタ34及び受光素子部35の構成の第1の例を示す図である。波長選択フィルタ34は、それぞれが受光素子部35の受光面に略等しい大きさの5枚の波長選択フィルタ51〜55を有している。波長選択フィルタ51,52,53,54,55は、分岐部32から入射された反射光のうち、それぞれ1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の波長成分のみを透過する。波長選択フィルタ51〜55は、受光素子部35の受光面の前方に順に挿入される。これにより、受光素子部35は、各波長選択フィルタ51〜55に対応する波長成分の反射光を、順に受光する。   FIG. 8 is a diagram illustrating a first example of the configuration of the wavelength selection filter 34 and the light receiving element unit 35. The wavelength selection filter 34 includes five wavelength selection filters 51 to 55 each having a size substantially equal to the light receiving surface of the light receiving element portion 35. The wavelength selection filters 51, 52, 53, 54, and 55 transmit only the wavelength components of the 1100 nm band, the 1200 nm band, the 1300 nm band, the 1500 nm band, and the 1600 nm band, respectively, of the reflected light incident from the branching unit 32. The wavelength selection filters 51 to 55 are sequentially inserted in front of the light receiving surface of the light receiving element unit 35. Thereby, the light receiving element part 35 receives the reflected light of the wavelength component corresponding to each wavelength selection filter 51-55 in order.

図9は、波長選択フィルタ34及び受光素子部35の構成の第2の例を示す図である。受光素子部35は、同一構造の受光素子部351〜355が並設された構成を有しており、受光素子部351,352,353,354,355の各受光面の前方に、波長選択フィルタ51,52,53,54,55がそれぞれ配置されている。分岐部32によって分岐された反射光は、図示しない追加の分岐部によって、受光素子部351〜355に向けてさらに分岐される。これにより、受光素子部35は、各波長選択フィルタ51〜55に対応する波長成分の反射光を、並行して受光する。   FIG. 9 is a diagram illustrating a second example of the configuration of the wavelength selection filter 34 and the light receiving element unit 35. The light receiving element unit 35 has a configuration in which light receiving element units 351 to 355 having the same structure are arranged in parallel. A wavelength selective filter is provided in front of each light receiving surface of the light receiving element units 351, 352, 353, 354, and 355. 51, 52, 53, 54, 55 are arranged, respectively. The reflected light branched by the branch part 32 is further branched toward the light receiving element parts 351 to 355 by an additional branch part (not shown). Thereby, the light receiving element part 35 receives the reflected light of the wavelength component corresponding to each wavelength selection filter 51-55 in parallel.

図10は、材質分析部39Aの構成を示すブロック図である。材質分析部39Aは、反射率算出部91A、正規化指標算出部92A、二次微分値算出部93A、及び材質識別部94Aを有して構成されている。材質分析部39Aは、広角カメラ11Aによって撮影された撮影画像のうち、当該撮影画像内に含まれている移動物体に対応する画像領域に関して、1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長成分のスペクトルを検出する。そして、当該スペクトルの検出結果に基づいて、当該移動物体の材質を識別する。なお、図10には材質分析部39Aの構成を示したが、材質分析部39Bの構成もこれと同様である。   FIG. 10 is a block diagram showing the configuration of the material analysis unit 39A. The material analysis unit 39A includes a reflectance calculation unit 91A, a normalization index calculation unit 92A, a secondary differential value calculation unit 93A, and a material identification unit 94A. The material analysis unit 39A includes a 1100 nm band, a 1200 nm band, a 1300 nm band, a 1500 nm band, and a 1600 nm band with respect to an image region corresponding to a moving object included in the captured image of the captured image captured by the wide-angle camera 11A. The spectrum of each wavelength component of the band is detected. Then, the material of the moving object is identified based on the detection result of the spectrum. 10 shows the configuration of the material analysis unit 39A, the configuration of the material analysis unit 39B is the same as this.

図11は、監視装置3の全体動作を示すフローチャートである。以下、図11に示したフローチャートに従って、監視装置3の動作について詳細に説明する。   FIG. 11 is a flowchart showing the overall operation of the monitoring device 3. Hereinafter, the operation of the monitoring device 3 will be described in detail according to the flowchart shown in FIG.

ステップP11において、広角カメラ11A,11Bによって監視エリア4の全体が常時撮影される。   In step P11, the entire monitoring area 4 is always photographed by the wide-angle cameras 11A and 11B.

図12は、広角カメラ11A,11Bによってそれぞれ撮影された撮影画像200A,200Bを示す図である。図12の(A)には、監視エリア4内に侵入者61〜63が侵入した状況を示しており、図12の(B)には、図12の(A)の状況を広角カメラ11Aによって撮影した撮影画像200Aを示しており、図12の(C)には、図12の(A)の状況を広角カメラ11Bによって撮影した撮影画像200Bを示している。広角カメラ11A,11Bは異なる方向から監視エリア4を撮影しているため、その視差に起因して、撮影画像200A,200B内における侵入者61〜63の位置は互いに異なっている。   FIG. 12 is a diagram illustrating captured images 200A and 200B captured by the wide-angle cameras 11A and 11B, respectively. FIG. 12A shows a situation in which intruders 61 to 63 have entered the monitoring area 4, and FIG. 12B shows the situation in FIG. 12A by the wide-angle camera 11A. A photographed image 200A is shown, and FIG. 12C shows a photographed image 200B obtained by photographing the situation of FIG. 12A with the wide-angle camera 11B. Since the wide-angle cameras 11A and 11B capture the monitoring area 4 from different directions, the positions of the intruders 61 to 63 in the captured images 200A and 200B are different from each other due to the parallax.

図11のフローチャートを参照して、次にステップP12において、監視エリア4内に何等かの移動物体が含まれているか否かが判定される。具体的には、図5を参照して、広角カメラ11A,11Bによって撮影された撮影画像200A,200Bが、受光素子部33A,33Bから動体検出部36A,36Bにそれぞれ入力される。そして、動体検出部36A,36Bは、時系列に順次入力される連続画像間の差分に基づいて、撮影画像200A,200B内に移動物体が含まれているか否かをそれぞれ判定する。また、動体検出部36A,36Bは、移動物体が含まれている場合には、撮影画像200A,200Bの全体領域のうち、移動物体に対応する画像領域をそれぞれ特定する。図12の例においては、動体検出部36Aは画像領域71〜73を特定し、動体検出部36Bは画像領域74〜76を特定する。   Referring to the flowchart of FIG. 11, next, in step P <b> 12, it is determined whether or not any moving object is included in the monitoring area 4. Specifically, referring to FIG. 5, captured images 200A and 200B captured by wide-angle cameras 11A and 11B are input from light receiving element units 33A and 33B to moving object detection units 36A and 36B, respectively. Then, the moving object detection units 36A and 36B respectively determine whether or not a moving object is included in the captured images 200A and 200B based on the difference between the continuous images sequentially input in time series. In addition, when a moving object is included, the moving object detection units 36A and 36B each specify an image area corresponding to the moving object from the entire areas of the captured images 200A and 200B. In the example of FIG. 12, the moving object detection unit 36A specifies the image areas 71 to 73, and the moving object detection unit 36B specifies the image areas 74 to 76.

図11のフローチャートを参照して、監視エリア4内に移動物体が含まれていない場合(つまりステップP12の判定結果が「NO」である場合)は、ステップP11,P12動作が繰り返し実行される。一方、監視エリア4内に移動物体が含まれている場合(つまりステップP12の判定結果が「YES」である場合)は、次にステップP13において、移動物体の形状分析及びスペクトル分析が行われる。具体的には、図5を参照して、抽出部37Aは、動体検出部36Aが特定した画像領域71〜73を、可視域の撮影画像200Aから抽出し、抽出した画像領域71〜73を形状分析部38Aに入力する。また、抽出部37Aは、動体検出部36Aが特定した画像領域71〜73を、赤外域の撮影画像200Aから抽出し、抽出した画像領域71〜73を材質分析部39Aに入力する。   Referring to the flowchart of FIG. 11, when a moving object is not included in monitoring area 4 (that is, when the determination result in step P12 is “NO”), the operations of steps P11 and P12 are repeatedly executed. On the other hand, when a moving object is included in the monitoring area 4 (that is, when the determination result in Step P12 is “YES”), shape analysis and spectrum analysis of the moving object are performed in Step P13. Specifically, referring to FIG. 5, the extraction unit 37A extracts the image regions 71 to 73 specified by the moving object detection unit 36A from the captured image 200A in the visible range, and shapes the extracted image regions 71 to 73 into shapes. The data is input to the analysis unit 38A. The extraction unit 37A extracts the image regions 71 to 73 specified by the moving object detection unit 36A from the infrared captured image 200A, and inputs the extracted image regions 71 to 73 to the material analysis unit 39A.

形状分析部38Aは、各画像領域71,72に関して、人間の外見に関する複数のテンプレート画像(予め準備されて図示しない記憶部に記憶されている)を用いてパターンマッチングを行うことにより、各画像領域71〜73に含まれている移動物体が人間であるか否かをそれぞれ分析する。形状分析部38Aは、各画像領域71〜73に含まれている移動物体が人間であることの確度を示すパラメータ情報を、後段の識別部23Aに入力する。   The shape analysis unit 38A performs pattern matching on each of the image regions 71 and 72 using a plurality of template images (prepared in advance and stored in a storage unit (not shown)) related to the appearance of the person, thereby Each of the moving objects included in 71 to 73 is analyzed as to whether or not it is a human. The shape analysis unit 38A inputs parameter information indicating the accuracy that the moving object included in each of the image regions 71 to 73 is a human to the identification unit 23A at the subsequent stage.

材質分析部39Aは、各画像領域71〜73に関して、1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の波長成分のスペクトルを検出し、その検出結果に基づいて、各画像領域71〜73に含まれている移動物体の材質をそれぞれ分析する。   The material analysis unit 39A detects the spectrum of the wavelength components of the 1100 nm band, the 1200 nm band, the 1300 nm band, the 1500 nm band, and the 1600 nm band for each of the image areas 71 to 73, and based on the detection result, the image areas 71 to 73 are detected. The material of the moving object included in 73 is analyzed.

以下、材質分析部39Aにおける処理の内容について詳細に説明する。上記の通り、受光素子部35Aを構成する各受光素子は、反射光の受光強度に応じた大きさの電気信号を出力する。材質分析部39Aには、1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長成分に関して、画像領域71〜73に属する受光素子から出力された電気信号が、受光素子部35Aから抽出部37Aを介して入力される。図10を参照して、当該電気信号は、反射率算出部91Aに入力される。   Hereinafter, the contents of processing in the material analysis unit 39A will be described in detail. As described above, each light receiving element constituting the light receiving element portion 35A outputs an electric signal having a magnitude corresponding to the received light intensity of the reflected light. The material analysis unit 39A receives electrical signals output from the light receiving elements belonging to the image regions 71 to 73 for the respective wavelength components in the 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band from the light receiving element unit 35A. It is input via the extraction unit 37A. Referring to FIG. 10, the electric signal is input to reflectance calculation unit 91A.

反射率算出部91Aは、受光素子部35Aから入力された電気信号に基づいて、1100nm帯、1200nm帯、1300nm帯、1500nm帯、及び1600nm帯の各波長成分に関する反射率R1100,R1200,R1300,R1500,R1600を算出する。   Based on the electrical signal input from the light receiving element unit 35A, the reflectance calculation unit 91A reflects the reflectances R1100, R1200, R1300, and R1500 for each wavelength component in the 1100 nm band, 1200 nm band, 1300 nm band, 1500 nm band, and 1600 nm band. , R1600.

正規化指標算出部92Aは、反射率算出部91Aによって算出された反射率R1100,R1200,R1300,R1500,R1600に基づいて、以下に示す式により定義される正規化指標ND1〜ND4を算出する。
ND1 : (R1500−R1300)/(R1500+R1300)
ND2 : (R1500−R1200)/(R1500+R1200)
ND3 : (R1600−R1300)/(R1600+R1300)
ND4 : (R1300−R1100)/(R1300+R1100)
Based on the reflectances R1100, R1200, R1300, R1500, and R1600 calculated by the reflectance calculation unit 91A, the normalization index calculation unit 92A calculates normalization indexes ND1 to ND4 defined by the following expressions.
ND1: (R1500-R1300) / (R1500 + R1300)
ND2: (R1500-R1200) / (R1500 + R1200)
ND3: (R1600-R1300) / (R1600 + R1300)
ND4: (R1300-R1100) / (R1300 + R1100)

また、二次微分値算出部93Aは、上記反射率と波長との関数の二次微分値を算出する。本実施の形態では、二次微分値算出部93Aは、反射率算出部91Aによって算出された反射率R1100,R1200,R1300,R1500,R1600に基づいて、以下に示す式により定義される近似的な二次微分値2ndder1,2ndder2を算出する。
ndder1 :
[{(R1500−R1300)/(R1500+R1300)}/200]
−[{(R1300−R1200)/(R1300+R1200)}/100]
ndder2 :
[{(R1500−R1200)/(R1500+R1200)}/300]
−[{(R1200−R1100)/(R1200+R1100)}/100]
Further, the secondary differential value calculation unit 93A calculates a secondary differential value of the function of the reflectance and the wavelength. In the present embodiment, the secondary differential value calculation unit 93A is an approximate one defined by the following formula based on the reflectances R1100, R1200, R1300, R1500, and R1600 calculated by the reflectance calculation unit 91A. Second derivative values 2 nd der1 and nd der2 are calculated.
2 nd der1:
[{(R1500-R1300) / (R1500 + R1300)} / 200]
-[{(R1300-R1200) / (R1300 + R1200)} / 100]
2 nd der2:
[{(R1500-R1200) / (R1500 + R1200)} / 300]
-[{(R1200-R1100) / (R1200 + R1100)} / 100]

反射率R1100,R1200,R1300,R1500,R1600、正規化指標ND1〜ND4、及び二次微分値2ndder1,2ndder2は、材質識別部94Aに入力される。 The reflectances R1100, R1200, R1300, R1500, R1600, the normalization indices ND1 to ND4, and the second derivative values 2 nd der1 and nd der2 are input to the material identification unit 94A.

材質識別部94Aは、入力されたこれらの情報に基づいて、対象物(つまり監視エリア4内に含まれている移動物体)の材質を識別する。   The material identifying unit 94A identifies the material of the object (that is, the moving object included in the monitoring area 4) based on the input information.

図13,14は、材質識別部94Aによる材質の識別処理を示すフローチャートである。まずステップP21において材質識別部94Aは、各反射率R1100,R1200,R1300,R1500,R1600の値が近似的に0であるか否かを判定する。例えば、反射率の値が所定値(例えば0.02)未満である場合にはその反射率は近似的に0であると判定し、反射率の値が当該所定値以上である場合にはその反射率は近似的に0でないと判定する。全ての反射率R1100,R1200,R1300,R1500,R1600の値が近似的に0である場合(つまりステップP21における判定結果が「YES」である場合)には、材質識別部94Aは、解析対象範囲内(この例では各画像領域71〜73内)に窓ガラスが存在すると判定する。   13 and 14 are flowcharts showing a material identification process by the material identification unit 94A. First, in step P21, the material identifying unit 94A determines whether or not the values of the reflectances R1100, R1200, R1300, R1500, and R1600 are approximately zero. For example, when the reflectance value is less than a predetermined value (for example, 0.02), the reflectance is determined to be approximately 0, and when the reflectance value is greater than or equal to the predetermined value, It is determined that the reflectance is not approximately 0. When the values of all the reflectances R1100, R1200, R1300, R1500, and R1600 are approximately 0 (that is, when the determination result in Step P21 is “YES”), the material identification unit 94A determines the analysis target range. It is determined that there is a window glass inside (in each image area 71 to 73 in this example).

一方、いずれかの反射率R1100,R1200,R1300,R1500,R1600の値が近似的に0でない場合(つまりステップP21における判定結果が「NO」である場合)には、次にステップP22において材質識別部94Aは、二次微分値2ndder1に正規化指標ND1,ND3の和を乗じた値「2ndder1×(ND1+ND3)」が所定の閾値Th11未満であるか否かを判定する。 On the other hand, if the value of any of the reflectances R1100, R1200, R1300, R1500, R1600 is not approximately 0 (that is, if the determination result in step P21 is “NO”), then material identification is performed in step P22. The unit 94A determines whether or not a value “2 nd der1 × (ND1 + ND3)” obtained by multiplying the secondary differential value 2 nd der1 by the sum of the normalization indices ND1 and ND3 is less than a predetermined threshold Th11.

「2ndder1×(ND1+ND3)」の値が閾値Th11以上である場合(つまりステップP22における判定結果が「NO」である場合)には、次にステップP23において材質識別部94Aは、正規化指標ND2の値が所定の閾値Th12より大きいか否かを判定する。 If the value of “2 nd der1 × (ND1 + ND3)” is equal to or greater than the threshold value Th11 (that is, if the determination result in step P22 is “NO”), then in step P23, the material identification unit 94A causes the normalization index It is determined whether or not the value of ND2 is greater than a predetermined threshold value Th12.

正規化指標ND2の値が閾値Th12より大きい場合(つまりステップP23における判定結果が「YES」である場合)には、材質識別部94Aは、解析対象範囲内に動物又は布地が存在すると判定する。   When the value of the normalization index ND2 is larger than the threshold value Th12 (that is, when the determination result in Step P23 is “YES”), the material identifying unit 94A determines that an animal or fabric exists within the analysis target range.

一方、正規化指標ND2の値が閾値Th12以下である場合(つまりステップP23における判定結果が「NO」である場合)には、次にステップP24において材質識別部94Aは、二次微分値2ndder2の値が所定の閾値Th13未満であるか否かを判定する。 On the other hand, when the value of the normalization index ND2 is equal to or smaller than the threshold Th12 (that is, when the determination result in Step P23 is “NO”), in Step P24, the material identification unit 94A then determines the secondary differential value 2 nd. It is determined whether the value of der2 is less than a predetermined threshold Th13.

二次微分値2ndder2の値が閾値Th13未満である場合(つまりステップP24における判定結果が「YES」である場合)には、材質識別部94Aは、解析対象範囲内に植物が存在すると判定する。 When the value of the secondary differential value 2 nd der2 is less than the threshold Th13 (that is, when the determination result in Step P24 is “YES”), the material identification unit 94A determines that the plant exists in the analysis target range. To do.

一方、二次微分値2ndder2の値が閾値Th13以上である場合(つまりステップP24における判定結果が「NO」である場合)には、材質識別部94Aは、解析対象範囲内に人肌が存在すると判定する。 On the other hand, when the value of the secondary differential value 2 nd der2 is equal to or greater than the threshold Th13 (that is, when the determination result in Step P24 is “NO”), the material identification unit 94A determines that the human skin is within the analysis target range. It is determined that it exists.

上記ステップP22の判定において、「2ndder1×(ND1+ND3)」の値が閾値Th11以上である場合(つまりステップP22における判定結果が「NO」である場合)には、次にステップP25において材質識別部94Aは、正規化指標ND3の値が所定の閾値Th14未満であるか否かを判定する。 If the value of “2 nd der1 × (ND1 + ND3)” is greater than or equal to the threshold Th11 in the determination in Step P22 (that is, if the determination result in Step P22 is “NO”), then material identification is performed in Step P25. The unit 94A determines whether or not the value of the normalization index ND3 is less than a predetermined threshold Th14.

正規化指標ND3の値が閾値Th14未満である場合(つまりステップP25における判定結果が「YES」である場合)には、次にステップP26において材質識別部94Aは、正規化指標ND4の値が所定の閾値Th15未満であるか否かを判定する。   If the value of the normalized index ND3 is less than the threshold Th14 (that is, if the determination result in Step P25 is “YES”), then in Step P26, the material identifying unit 94A determines that the value of the normalized index ND4 is a predetermined value. It is determined whether it is less than the threshold value Th15.

正規化指標ND4の値が閾値Th15未満である場合(つまりステップP26における判定結果が「YES」である場合)には、材質識別部94Aは、解析対象範囲内に金属が存在すると判定する。   When the value of the normalization index ND4 is less than the threshold Th15 (that is, when the determination result in Step P26 is “YES”), the material identification unit 94A determines that the metal exists within the analysis target range.

一方、正規化指標ND4の値が閾値Th15以上である場合(つまりステップP26における判定結果が「NO」である場合)には、材質識別部94Aは、解析対象範囲内にコンクリート又は石が存在すると判定する。   On the other hand, when the value of the normalization index ND4 is equal to or greater than the threshold Th15 (that is, when the determination result in Step P26 is “NO”), the material identification unit 94A determines that concrete or stone exists within the analysis target range. judge.

上記ステップP25の判定において、正規化指標ND3の値が閾値Th14以上である場合(つまりステップP25における判定結果が「NO」である場合)には、次にステップP27において材質識別部94Aは、正規化指標ND2の値が所定の閾値Th16未満であるか否かを判定する。   If the value of the normalization index ND3 is greater than or equal to the threshold Th14 in the determination in step P25 (that is, if the determination result in step P25 is “NO”), then in step P27, the material identification unit 94A It is determined whether the value of the optimization index ND2 is less than a predetermined threshold Th16.

正規化指標ND2の値が閾値Th16未満である場合(つまりステップP27における判定結果が「YES」である場合)には、材質識別部94Aは、解析対象範囲内にアスファルトが存在すると判定する。   When the value of the normalization index ND2 is less than the threshold Th16 (that is, when the determination result in Step P27 is “YES”), the material identification unit 94A determines that asphalt exists within the analysis target range.

一方、正規化指標ND2の値が閾値Th16以上である場合(つまりステップP27における判定結果が「NO」である場合)には、材質識別部94Aは、解析対象範囲内にコンクリート又は石が存在すると判定する。   On the other hand, when the value of the normalization index ND2 is equal to or greater than the threshold Th16 (that is, when the determination result in Step P27 is “NO”), the material identification unit 94A determines that concrete or stone exists within the analysis target range. judge.

なお、各閾値Th11〜Th16は、予め、金属や人肌等の既知の対象に対して測定領域を設定して材質識別部94Aによる上記識別フローを実施することにより、対象を正確に識別できる適切な値に設定される。   In addition, each threshold value Th11 to Th16 is appropriately set so that a target can be accurately identified by setting a measurement region in advance for a known target such as metal or human skin and performing the above identification flow by the material identifying unit 94A. Set to the correct value.

以上の結果、材質識別部94Aは、解析対象範囲内に人肌が存在すると判定した場合には、監視エリア4内に含まれている移動物体の種別は人間であると識別する。一方、それ以外の場合には、監視エリア4内に含まれている移動物体の種別は人間でないと識別する。例えば、解析対象範囲内に窓ガラス又は金属が存在すると判定した場合には、監視エリア4内に含まれている移動物体の種別は車であると識別する。   As a result, when the material identifying unit 94A determines that human skin exists within the analysis target range, the material identifying unit 94A identifies that the type of the moving object included in the monitoring area 4 is human. On the other hand, in other cases, the type of the moving object included in the monitoring area 4 is identified as not being human. For example, when it is determined that a window glass or metal exists within the analysis target range, the type of the moving object included in the monitoring area 4 is identified as a car.

なお、監視エリア4への侵入者が覆面や手袋を着用することによって人肌が露出していない状況も想定される。そのため、人間のみが着用する化学繊維等の材質を検出可能な識別フローを設定することにより、解析対象範囲内に化学繊維が存在すると判定した場合には、監視エリア4内に含まれている移動物体の種別は人間であると識別してもよい。また、ウール、綿、ナイロン、ポリエステル等の繊維の種別を検出可能な識別フローを設定することにより、人間が着用している衣服の材質を識別することもできる。   In addition, the situation where the intruder into the monitoring area 4 does not expose human skin by wearing a cover or gloves is also assumed. Therefore, if it is determined that a chemical fiber is present in the analysis target range by setting an identification flow that can detect a material such as a chemical fiber worn only by humans, the movement included in the monitoring area 4 The object type may be identified as human. In addition, by setting an identification flow that can detect the type of fiber such as wool, cotton, nylon, and polyester, it is possible to identify the material of clothes worn by humans.

図5を参照して、材質分析部39Aは、各画像領域71〜73に含まれている移動物体が人間であることの確度を示すパラメータ情報を、後段の識別部23Aに入力する。   Referring to FIG. 5, the material analysis unit 39A inputs parameter information indicating the accuracy that the moving object included in each of the image regions 71 to 73 is a human to the identification unit 23A at the subsequent stage.

なお、以上の説明では広角カメラ11Aに対応する形状分析部38A及び材質分析部39Aにおける処理について説明したが、広角カメラ11Bに対応する形状分析部38B及び材質分析部39Bにおける処理もこれと同様であるため、重複した説明は省略する。   In the above description, the processing in the shape analysis unit 38A and the material analysis unit 39A corresponding to the wide-angle camera 11A has been described, but the processing in the shape analysis unit 38B and the material analysis unit 39B corresponding to the wide-angle camera 11B is similar to this. Therefore, redundant description is omitted.

図11のフローチャートを参照して、次にステップP14において識別部23Aは、形状分析部38A及び材質分析部39Aからそれぞれ入力された、各画像領域71〜73に含まれている移動物体が人間であることの確度を示すパラメータ情報に基づいて、各画像領域71〜73に含まれている移動物体が人間であるか否かを識別する。例えば、形状分析部38A及び材質分析部39Aから入力されたパラメータ情報の双方の値が所定の閾値以上である場合に、各画像領域71〜73に含まれている移動物体は人間であると識別する。   Referring to the flowchart of FIG. 11, next in step P14, the identification unit 23A determines that the moving objects included in the image regions 71 to 73 input from the shape analysis unit 38A and the material analysis unit 39A are human. Based on the parameter information indicating the certainty of being, it is determined whether or not the moving object included in each of the image areas 71 to 73 is a human. For example, when both values of the parameter information input from the shape analysis unit 38A and the material analysis unit 39A are equal to or greater than a predetermined threshold, the moving object included in each of the image regions 71 to 73 is identified as a human being. To do.

ここで、撮影画像200A内における各画像領域71〜73のサイズが小さい場合(特に、図7に示したように受光素子部35の空間分解能が低い場合)には、材質分析部39Aによる材質分析の精度が低下する可能性がある。そこで、識別部23Aは、撮影画像200A内における各画像領域71〜73のサイズが所定値より小さい場合には、材質分析部39Aから入力されたパラメータ情報よりも形状分析部38Aから入力されたパラメータ情報を重視して、各画像領域71〜73に含まれている移動物体が人間であるか否かを識別する。例えば、各画像領域71〜73のサイズが上記所定値未満である場合には、形状分析部38Aから入力されたパラメータ情報のみに基づいて識別を行い、各画像領域71,72のサイズが上記所定値以上である場合には、形状分析部38A及び材質分析部39Aの双方から入力されたパラメータ情報に基づいて識別を行う。   Here, when the size of each of the image regions 71 to 73 in the captured image 200A is small (particularly when the spatial resolution of the light receiving element unit 35 is low as shown in FIG. 7), the material analysis by the material analysis unit 39A. Accuracy may be reduced. Therefore, when the size of each of the image areas 71 to 73 in the captured image 200A is smaller than the predetermined value, the identification unit 23A uses the parameter input from the shape analysis unit 38A rather than the parameter information input from the material analysis unit 39A. Emphasizing information, it is determined whether or not the moving object included in each of the image areas 71 to 73 is a human. For example, when the size of each of the image areas 71 to 73 is less than the predetermined value, identification is performed based only on the parameter information input from the shape analysis unit 38A, and the size of each of the image areas 71 and 72 is the predetermined value. If the value is greater than or equal to the value, identification is performed based on parameter information input from both the shape analysis unit 38A and the material analysis unit 39A.

なお、以上の説明では広角カメラ11Aに対応する識別部23Aにおける処理について説明したが、広角カメラ11Bに対応する識別部23Bにおける処理もこれと同様である。   In the above description, the process in the identification unit 23A corresponding to the wide-angle camera 11A has been described, but the process in the identification unit 23B corresponding to the wide-angle camera 11B is the same as this.

各画像領域71〜73に含まれている移動物体が人間でないと識別された場合(つまりステップP14の判定結果が「NO」である場合)は、ステップP11以降の動作が繰り返し実行される。一方、各画像領域71〜73に含まれている移動物体が人間(つまり侵入者)であると識別された場合(つまりステップP14の判定結果が「YES」である場合)は、次にステップP15において特徴データ生成部24Aは、各画像領域71〜73に含まれている移動物体の特徴量を表す特徴データを生成する。例えば、各移動物体に関して、撮影画像200A内における行方向及び列方向の位置座標、前フレームからの位置の変化量、及び、材質分析部39Aによって画素毎に求めた材質情報等をパラメータとして記述した特徴データを生成する。画素毎の材質情報を記述することにより、侵入者が着用している衣服の材質に関する情報を、特徴データに含めることができる。特徴データ生成部24Aによって生成された各移動物体に関する特徴データは、データ処理部40に入力される。   When the moving object included in each of the image areas 71 to 73 is identified as not being human (that is, when the determination result in Step P14 is “NO”), the operations after Step P11 are repeatedly executed. On the other hand, when the moving object included in each of the image areas 71 to 73 is identified as a human (that is, an intruder) (that is, when the determination result in Step P14 is “YES”), the next step P15 is performed. The feature data generation unit 24A generates feature data representing the feature amount of the moving object included in each of the image regions 71 to 73. For example, for each moving object, the position coordinates in the row direction and the column direction in the photographed image 200A, the amount of change in position from the previous frame, the material information obtained for each pixel by the material analysis unit 39A, and the like are described as parameters. Generate feature data. By describing the material information for each pixel, information on the material of the clothes worn by the intruder can be included in the feature data. The feature data regarding each moving object generated by the feature data generation unit 24A is input to the data processing unit 40.

なお、以上の説明では広角カメラ11Aに対応する特徴データ生成部24Aにおける処理について説明したが、広角カメラ11Bに対応する特徴データ生成部24Bにおける処理もこれと同様である。特徴データ生成部24Aによって生成された、各画像領域74〜76に含まれている移動物体に関する特徴データは、特徴データ生成部24Bからデータ処理部40に入力される。   In the above description, the process in the feature data generation unit 24A corresponding to the wide-angle camera 11A has been described, but the process in the feature data generation unit 24B corresponding to the wide-angle camera 11B is the same as this. The feature data related to the moving object included in the image regions 74 to 76 generated by the feature data generation unit 24A is input from the feature data generation unit 24B to the data processing unit 40.

図11のフローチャートを参照して、次にステップP16において個別対象特定部42は、特徴データ生成部24A,24Bからそれぞれ入力された特徴データに基づいて、各撮影画像200A,200B内に含まれている移動物体を個々に特定する。例えば、侵入者61が覆面を着用しており、侵入者62,63が覆面を着用していない場合には、侵入者61の顔部分の材質は繊維となる一方、侵入者62,63の顔部分の材質は人肌となる。従って、個別対象特定部42は、顔部分の材質の相違に基づいて、侵入者61と侵入者62,63とを区別することができる。また、侵入者62と侵入者63とで着用している衣服の材質が異なる場合には、各侵入者62,63の体部分の材質が互いに異なる。従って、個別対象特定部42は、体部分の材質の相違に基づいて、侵入者62,63を個々に区別することができる。本実施の形態では、個別対象特定部42は、画像領域71に対応する特徴データに基づいて侵入者61を特定し、画像領域72に対応する特徴データに基づいて侵入者62を特定し、画像領域73に対応する特徴データに基づいて侵入者63を特定する。同様に、個別対象特定部42は、画像領域74に対応する特徴データに基づいて侵入者61を特定し、画像領域75に対応する特徴データに基づいて侵入者62を特定し、画像領域76に対応する特徴データに基づいて侵入者63を特定する。   Referring to the flowchart of FIG. 11, next in step P16, the individual object specifying unit 42 is included in each of the captured images 200A and 200B based on the feature data input from the feature data generating units 24A and 24B, respectively. Identify moving objects individually. For example, when the intruder 61 is wearing a covering surface and the intruders 62 and 63 are not wearing a covering surface, the material of the face portion of the intruder 61 is a fiber, while the face of the intruder 62 or 63 is The material of the part is human skin. Therefore, the individual target specifying unit 42 can distinguish between the intruder 61 and the intruders 62 and 63 based on the difference in the material of the face portion. Moreover, when the materials of the clothes worn by the intruder 62 and the intruder 63 are different, the materials of the body parts of the intruders 62 and 63 are different from each other. Therefore, the individual object specifying unit 42 can distinguish the intruders 62 and 63 individually based on the difference in the material of the body part. In the present embodiment, the individual target specifying unit 42 specifies the intruder 61 based on the feature data corresponding to the image region 71, specifies the intruder 62 based on the feature data corresponding to the image region 72, and The intruder 63 is specified based on the feature data corresponding to the area 73. Similarly, the individual target specifying unit 42 specifies the intruder 61 based on the feature data corresponding to the image area 74, specifies the intruder 62 based on the feature data corresponding to the image area 75, and sets the image area 76. The intruder 63 is specified based on the corresponding feature data.

また、ステップP16において同一対象特定部41は、特徴データ生成部24A,24Bからそれぞれ入力された特徴データに基づいて、撮影画像200A,200B内に含まれている同一対象の移動物体を特定する。本実施の形態では、同一対象特定部41は、撮影画像200Aの画像領域71に含まれている人間と、撮影画像200Bの画像領域74に含まれている人間とが同一対象(侵入者61)であると特定し、撮影画像200Aの画像領域72に含まれている人間と、撮影画像200Bの画像領域75に含まれている人間とが同一対象(侵入者62)であると特定し、撮影画像200Aの画像領域73に含まれている人間と、撮影画像200Bの画像領域76に含まれている人間とが同一対象(侵入者63)であると特定する。   In step P16, the same target specifying unit 41 specifies the same target moving object included in the captured images 200A and 200B based on the feature data respectively input from the feature data generating units 24A and 24B. In the present embodiment, the same target specifying unit 41 is the same target (intruder 61) for a human included in the image area 71 of the captured image 200A and a human included in the image area 74 of the captured image 200B. The person included in the image area 72 of the photographed image 200A and the person included in the image area 75 of the photographed image 200B are identified as the same target (intruder 62), and photographed. The person included in the image area 73 of the image 200A and the person included in the image area 76 of the captured image 200B are specified as the same target (intruder 63).

次にステップP17において位置特定部43は、広角カメラ11A,11B間の距離、及び、撮影画像200A,200B内における同一対象の画像領域71,74の位置関係に基づいて、監視エリア4内における侵入者61の位置を特定する。同様に、位置特定部43は、広角カメラ11A,11B間の距離、及び、撮影画像200A,200B内における同一対象の画像領域72,75の位置関係に基づいて、監視エリア4内における侵入者62の位置を特定する。同様に、位置特定部43は、広角カメラ11A,11B間の距離、及び、撮影画像200A,200B内における同一対象の画像領域73,76の位置関係に基づいて、監視エリア4内における侵入者63の位置を特定する。   Next, in step P17, the position specifying unit 43 enters the surveillance area 4 based on the distance between the wide-angle cameras 11A and 11B and the positional relationship between the image areas 71 and 74 of the same target in the captured images 200A and 200B. The position of the person 61 is specified. Similarly, the position specifying unit 43 is based on the distance between the wide-angle cameras 11A and 11B and the positional relationship between the image areas 72 and 75 of the same target in the captured images 200A and 200B. Specify the position of. Similarly, the position specifying unit 43 is based on the distance between the wide-angle cameras 11A and 11B and the positional relationship between the image areas 73 and 76 of the same target in the captured images 200A and 200B. Specify the position of.

また、ステップP17において位置特定部43は、監視エリア4内における各侵入者61〜63の位置を示す位置情報マップを作成する。図16は、位置特定部43によって作成された位置情報マップ250の一例を示す図である。監視エリア4内における侵入者61,62,63の位置をそれぞれ示す図形81,82,83が、監視エリア4に対応する平面マップ上に表示されている。また、位置情報マップ250においては、監視エリア4の中でも特に重点的な監視を要するエリア(例えば通信基地局1の建屋への出入り口に近いエリア)が、重点監視エリア80として設定されている。重点監視エリア80は、監視エリア4内において予め任意に設定することが可能である。図16の例では、侵入者61に対応する図形81は重点監視エリア80内に含まれており、侵入者62,63にそれぞれ対応する図形82,83は重点監視エリア80外に含まれている。   In step P <b> 17, the position specifying unit 43 creates a position information map indicating the positions of the intruders 61 to 63 in the monitoring area 4. FIG. 16 is a diagram illustrating an example of the position information map 250 created by the position specifying unit 43. Figures 81, 82, 83 showing the positions of the intruders 61, 62, 63 in the monitoring area 4 are displayed on the plane map corresponding to the monitoring area 4. In the position information map 250, an area that requires particularly important monitoring in the monitoring area 4 (for example, an area close to the entrance to the building of the communication base station 1) is set as the priority monitoring area 80. The priority monitoring area 80 can be arbitrarily set in advance in the monitoring area 4. In the example of FIG. 16, the figure 81 corresponding to the intruder 61 is included in the priority monitoring area 80, and the figures 82 and 83 corresponding to the intruders 62 and 63 are included outside the priority monitoring area 80. .

なお、本実施の形態では、フェンス2を乗り越えて通信基地局1へ侵入しようとする侵入者を監視する用途での監視装置3の使用を想定しており、フェンス2を乗り越える際の高さ方向の移動量をも考慮する必要がある。二つの広角カメラ11A,11Bを用いてステレオカメラを構成しているため、高さ方向を含め侵入者の位置、侵入者までの距離を特定できる。しかし、必ずしもステレオカメラを用いる必要はなく、一つの広角カメラのみを用いてもよい。   In this embodiment, it is assumed that the monitoring device 3 is used for monitoring an intruder who tries to enter the communication base station 1 over the fence 2, and the height direction when the fence 2 is exceeded It is also necessary to consider the amount of movement. Since the stereo camera is configured by using the two wide-angle cameras 11A and 11B, the position of the intruder including the height direction and the distance to the intruder can be specified. However, it is not always necessary to use a stereo camera, and only one wide-angle camera may be used.

次にステップP18において、位置特定部43によって特定された移動物体の位置を視野の中心として、望遠カメラ12Aによる撮影を行う。望遠カメラ12Aは、監視エリア4内に含まれている侵入者61〜63のうち、最も重要度の高い侵入者を撮影する。図16に例示した位置情報マップ250においては、重点監視エリア80内に含まれている侵入者61の重要度が、重点監視エリア80外に含まれている侵入者62,63の重要度よりも高く設定されることにより、望遠カメラ12Aによって侵入者61が撮影される。監視エリア4内における侵入者61の位置を示す情報が位置特定部43から望遠カメラ12Aに通知され、望遠カメラ12Aは、通知された位置を撮影する。ここで、重点監視エリア80内に複数の侵入者が含まれている場合には、望遠カメラ12Aは、当該複数の侵入者を所定の時間間隔で交互に撮影する。   Next, in step P18, photographing with the telephoto camera 12A is performed with the position of the moving object identified by the position identifying unit 43 as the center of the visual field. The telephoto camera 12 </ b> A captures the most important intruder among the intruders 61 to 63 included in the monitoring area 4. In the position information map 250 illustrated in FIG. 16, the importance of the intruder 61 included in the priority monitoring area 80 is higher than the importance of the intruders 62 and 63 included outside the priority monitoring area 80. By setting it high, the intruder 61 is photographed by the telephoto camera 12A. Information indicating the position of the intruder 61 in the monitoring area 4 is notified from the position specifying unit 43 to the telephoto camera 12A, and the telephoto camera 12A captures the notified position. Here, when a plurality of intruders are included in the priority monitoring area 80, the telephoto camera 12A captures the plurality of intruders alternately at a predetermined time interval.

なお、重要度の設定手法は、上記の例に限らず任意である。例えば、監視エリア4内に侵入した時刻が新しい(又は古い)侵入者ほど、重要度を高く設定することができる。あるいは、移動速度が大きい侵入者ほど、重要度を高く設定することができる。あるいは、通信基地局1の出入り口に向かって近付く方向に移動する速度成分が大きい侵入者ほど、重要度を高く設定することができる。あるいは、通信基地局1の出入り口との距離が短い侵入者ほど、重要度を高く設定することができる。また、これらの要素を任意に組み合わせることによって重要度を設定してもよい。   Note that the importance setting method is not limited to the above example, but is arbitrary. For example, the newer (or older) intruder who entered the monitoring area 4 can set the importance level higher. Alternatively, an intruder with a higher moving speed can set a higher importance level. Alternatively, an intruder with a larger velocity component moving in a direction approaching the entrance / exit of the communication base station 1 can set the importance level higher. Or an intruder with a short distance from the entrance / exit of the communication base station 1 can set a higher importance. Moreover, you may set importance by combining these elements arbitrarily.

図15は、望遠カメラ12Aによって侵入者61を撮影した拡大画像300を示す図である。拡大画像300は、ハードディスク又は半導体メモリ等の任意の記録媒体に記録されるとともに、図2に示した表示装置6に表示される。   FIG. 15 is a diagram showing an enlarged image 300 obtained by photographing the intruder 61 with the telephoto camera 12A. The enlarged image 300 is recorded on an arbitrary recording medium such as a hard disk or a semiconductor memory, and is displayed on the display device 6 shown in FIG.

また、ステップP18において、位置特定部43によって特定された移動物体の位置を視野の中心として、望遠カメラ12Bによる撮影を行う。望遠カメラ12Bは、監視エリア4内に含まれている侵入者61〜63のうち、二番目に重要度の高い侵入者を撮影する。図16に例示した位置情報マップ250においては、侵入者62,63のうち重点監視エリア80に近い侵入者63の重要度が、侵入者62の重要度よりも高く設定されることにより、望遠カメラ12Bによって侵入者63が撮影される。監視エリア4内における侵入者63の位置を示す情報が位置特定部43から望遠カメラ12Bに通知され、望遠カメラ12Bは、通知された位置を撮影する。なお、望遠カメラ12Bは、侵入者62,63を所定の時間間隔で交互に撮影してもよい。望遠カメラ12Bによって撮影された拡大画像は、ハードディスク又は半導体メモリ等の任意の記録媒体に記録されるとともに、図2に示した表示装置6に表示される。   In step P18, the telephoto camera 12B performs imaging using the position of the moving object specified by the position specifying unit 43 as the center of the visual field. The telephoto camera 12B photographs the intruder having the second highest importance among the intruders 61 to 63 included in the monitoring area 4. In the position information map 250 illustrated in FIG. 16, the importance of the intruder 63 near the priority monitoring area 80 among the intruders 62 and 63 is set higher than the importance of the intruder 62, so that the telephoto camera is set. The intruder 63 is photographed by 12B. Information indicating the position of the intruder 63 in the monitoring area 4 is notified from the position specifying unit 43 to the telephoto camera 12B, and the telephoto camera 12B captures the notified position. The telephoto camera 12B may alternately photograph the intruders 62 and 63 at a predetermined time interval. An enlarged image taken by the telephoto camera 12B is recorded on an arbitrary recording medium such as a hard disk or a semiconductor memory, and is displayed on the display device 6 shown in FIG.

また、監視装置3は、望遠カメラ12A,12Bによる侵入者61〜63の撮影を行うととともに、音又は光等によって侵入者61〜63に対して所定の警告を行う。   In addition, the monitoring device 3 shoots the intruders 61 to 63 with the telephoto cameras 12A and 12B, and gives a predetermined warning to the intruders 61 to 63 by sound or light.

また、侵入者61〜63が監視エリア4内で移動する場合には、時系列に並ぶ複数の撮影画像200A内において、画像領域71〜73の位置が変化する。追跡処理部44は、特徴データが一致又は近似する画像領域を、連続する撮影画像200A内で探索することにより、侵入者61〜63の移動に伴う画像領域71〜73の位置変化を追跡する。同様に、追跡処理部44は、特徴データが一致又は近似する画像領域を、連続する撮影画像200B内で探索することにより、侵入者61〜63の移動に伴う画像領域74〜76の位置変化を追跡する。これにより、望遠カメラ12A,12Bによって侵入者61〜63を自動追跡して撮影することができる。   When the intruders 61 to 63 move within the monitoring area 4, the positions of the image areas 71 to 73 change in the plurality of captured images 200A arranged in time series. The tracking processing unit 44 tracks position changes of the image regions 71 to 73 accompanying the movement of the intruders 61 to 63 by searching for image regions in which the feature data match or approximate in the continuous captured images 200A. Similarly, the tracking processing unit 44 searches for an image area in which the feature data matches or approximates in the continuous captured image 200B, thereby changing the position of the image areas 74 to 76 accompanying the movement of the intruders 61 to 63. Chase. Thus, the intruders 61 to 63 can be automatically tracked and photographed by the telephoto cameras 12A and 12B.

図17は、表示装置6に表示される画像の一例を示す図である。表示装置6の表示画面は四つの領域151,152,153,154に分割されている。領域151には、広角カメラ11Aによって撮影された、監視エリア4の全体画像が表示される。領域152には、望遠カメラ12Aによって撮影された、侵入者61の拡大画像が表示される。   FIG. 17 is a diagram illustrating an example of an image displayed on the display device 6. The display screen of the display device 6 is divided into four areas 151, 152, 153 and 154. In the area 151, an entire image of the monitoring area 4 captured by the wide-angle camera 11A is displayed. In the area 152, an enlarged image of the intruder 61 photographed by the telephoto camera 12A is displayed.

領域153には、望遠カメラ12Bによって撮影された、侵入者63の拡大画像が表示される。領域154には、位置特定部43によって作成された位置情報マップ250が表示される。位置表示マップ250においては、望遠カメラ12Aによって現在撮影している監視エリア4内の位置を示す図形85と、望遠カメラ12Bによって現在撮影している監視エリア4内の位置を示す図形86とが、併せて表示される。   In the area 153, an enlarged image of the intruder 63 captured by the telephoto camera 12B is displayed. In the area 154, the position information map 250 created by the position specifying unit 43 is displayed. In the position display map 250, a graphic 85 indicating the position in the monitoring area 4 currently captured by the telephoto camera 12A and a graphic 86 indicating the position in the monitoring area 4 currently captured by the telephoto camera 12B are shown. Also displayed.

また、領域153においては、望遠カメラ12Bが自動追跡モードであることを示す情報(及び手動撮影モードに切換可能であることを示す情報)と、手動撮影モードに切り換える際にオペレータによって選択される選択ボタン88とが、併せて表示される。表示装置6はタッチパネルとしての機能を有しており、オペレータが選択ボタン88にタッチすることによって、望遠カメラ12Bは、二番目に重要度の高い侵入者を自動追跡して撮影する自動撮影モードから、オペレータの遠隔操作による手動撮影モードに切り換えられる。手動撮影モードにおいて、オペレータは、図2に示した操作部7を用いて望遠カメラ12Bのパンチルト機能及びズーム機能を遠隔操作することができ、これにより、監視エリア4内の所望箇所を望遠カメラ12Bによって撮影することができる。例えば、自動追跡モードの望遠カメラ12Bが侵入者63を撮影している状況において、侵入者63ではなく侵入者62を撮影したい場合には、オペレータは望遠カメラ12Bを手動撮影モードに切り換えた後、領域154に表示されている位置情報マップ250を参照しながら操作部7を用いて撮影位置を指定することにより、望遠カメラ12Bによって侵入者62を撮影することができる。   In the area 153, information indicating that the telephoto camera 12B is in the automatic tracking mode (and information indicating that switching to the manual shooting mode) and selection selected by the operator when switching to the manual shooting mode are performed. A button 88 is also displayed. The display device 6 has a function as a touch panel. When the operator touches the selection button 88, the telephoto camera 12B starts from an automatic shooting mode in which an intruder having the second highest importance is automatically tracked and shot. The manual shooting mode can be switched by the operator's remote operation. In the manual photographing mode, the operator can remotely control the pan / tilt function and the zoom function of the telephoto camera 12B using the operation unit 7 shown in FIG. Can be taken. For example, in a situation where the telephoto camera 12B in the automatic tracking mode is photographing the intruder 63, when the operator wants to photograph the intruder 62 instead of the intruder 63, the operator switches the telephoto camera 12B to the manual photographing mode, The intruder 62 can be photographed by the telephoto camera 12B by specifying the photographing position using the operation unit 7 while referring to the position information map 250 displayed in the area 154.

図18は、表示装置6に表示される画像の他の例を示す図である。領域153には、手動撮影モードの望遠カメラ12Bによって撮影された、侵入者62の拡大画像が表示される。また、望遠カメラ12Bの撮影モードが自動追跡モードから手動撮影モードに切り換えられたことにより、領域153には、望遠カメラ12Bが手動撮影モードであることを示す情報(及び自動追跡モードに切換可能であることを示す情報)と、自動追跡モードに切り換える際にオペレータによって選択される選択ボタン89とが、併せて表示される。   FIG. 18 is a diagram illustrating another example of an image displayed on the display device 6. In the area 153, an enlarged image of the intruder 62 captured by the telephoto camera 12B in the manual photographing mode is displayed. In addition, when the shooting mode of the telephoto camera 12B is switched from the automatic tracking mode to the manual shooting mode, information indicating that the telephoto camera 12B is in the manual shooting mode (and the automatic tracking mode can be switched to the area 153). Information indicating that there is) and a selection button 89 selected by the operator when switching to the automatic tracking mode are displayed together.

図11のフローチャートを参照して、次にステップP19において、侵入者61〜63が監視エリア4から去ったか否かが判定される。侵入者61〜63が監視エリア4内に滞在している場合(つまりステップP19の判定結果が「NO」である場合)は、ステップP16以降の動作が繰り返される。一方、侵入者61〜63が監視エリア4から去った場合(つまりステップP19の判定結果が「YES」である場合)は、ステップP11以降の動作が繰り返される。   Referring to the flowchart of FIG. 11, next, in step P <b> 19, it is determined whether or not the intruders 61 to 63 have left the monitoring area 4. When the intruders 61 to 63 are staying in the monitoring area 4 (that is, when the determination result in Step P19 is “NO”), the operations after Step P16 are repeated. On the other hand, when the intruders 61 to 63 have left the monitoring area 4 (that is, when the determination result in Step P19 is “YES”), the operations after Step P11 are repeated.

なお、侵入者の自動追跡のための望遠カメラ12A,12Bの駆動制御は、図3に示した制御部13によって行われる。但し、追跡のための所定の制御プログラムを格納したFPGA(Field Programmable Gate Array)及びDSP(Digital Signal Processor)を望遠カメラ12A,12B内に実装することにより、望遠カメラ12A,12B自らの制御によって侵入者の追跡を行ってもよい。   The drive control of the telephoto cameras 12A and 12B for automatic tracking of intruders is performed by the control unit 13 shown in FIG. However, by installing a Field Programmable Gate Array (FPGA) and a DSP (Digital Signal Processor) storing a predetermined control program for tracking in the telephoto cameras 12A and 12B, the telephoto cameras 12A and 12B are controlled by their own control. The person may be tracked.

また、図17,18の例では、表示装置6の表示画面が四分割表示されたが、四つの表示装置の各々の表示画面に各画像を全面表示してもよい。   In the examples of FIGS. 17 and 18, the display screen of the display device 6 is displayed in four divisions, but each image may be displayed on the entire display screen of each of the four display devices.

図19は、通信基地局1に複数の監視装置3が設置された状況を示す図である。通信基地局1の建屋の外周に沿って、監視装置3A〜3Dが設置されている。監視装置3A,3B,3C,3Dは、それぞれ監視エリア4A,4B,4C,4Dを監視する。監視装置3A〜3Dは、通信基地局1内に構築された通信ネットワーク160に接続されている。通信ネットワーク160には、監視装置3A〜3Dを統括して制御する制御装置161が接続されている。   FIG. 19 is a diagram illustrating a situation where a plurality of monitoring devices 3 are installed in the communication base station 1. Monitoring devices 3 </ b> A to 3 </ b> D are installed along the outer periphery of the building of the communication base station 1. The monitoring devices 3A, 3B, 3C, and 3D monitor the monitoring areas 4A, 4B, 4C, and 4D, respectively. The monitoring devices 3 </ b> A to 3 </ b> D are connected to a communication network 160 built in the communication base station 1. A control device 161 that controls the monitoring devices 3A to 3D in an integrated manner is connected to the communication network 160.

例えば、通信基地局1の敷地外から監視エリア4Aに侵入した侵入者が、監視エリア4Aから監視エリア4Bに移動した場合を想定する。この場合、まず監視装置3Aによって侵入者が撮影されることにより、監視装置3Aが備える特徴データ生成部24によって侵入者に関する特徴データが生成される。当該特徴データは、監視装置3Aから制御装置161に通知される。侵入者が監視エリア4Aから監視エリア4Bに移動すると、次に監視装置3Bによって侵入者が撮影されることにより、監視装置3Bが備える特徴データ生成部24によって侵入者に関する特徴データが生成される。当該特徴データは、監視装置3Bから制御装置161に通知される。制御装置161は、監視装置3Aから通知された特徴データと、監視装置3Bから通知された特徴データとを比較し、両特徴データが一致(又は近似)している場合には、監視装置3A,3Bによって撮影された侵入者は同一人物であると特定する。そして、監視装置3Aが備える望遠カメラ12Aが行っていた侵入者の自動追跡を、監視装置3Bが備える望遠カメラ12Aによって引き継ぐよう、監視装置3Bに対して追跡命令を入力する。これにより、監視エリア4A,4Bを跨ぐ侵入者の自動追跡が行われる。   For example, it is assumed that an intruder who has entered the monitoring area 4A from outside the premises of the communication base station 1 moves from the monitoring area 4A to the monitoring area 4B. In this case, first, when the intruder is photographed by the monitoring device 3A, feature data relating to the intruder is generated by the feature data generating unit 24 provided in the monitoring device 3A. The feature data is notified to the control device 161 from the monitoring device 3A. When the intruder moves from the monitoring area 4A to the monitoring area 4B, the intruder is photographed by the monitoring device 3B, and feature data relating to the intruder is generated by the feature data generating unit 24 provided in the monitoring device 3B. The feature data is notified to the control device 161 from the monitoring device 3B. The control device 161 compares the feature data notified from the monitoring device 3A with the feature data notified from the monitoring device 3B, and if both feature data match (or approximate), the monitoring device 3A, The intruder photographed by 3B is specified as the same person. Then, a tracking command is input to the monitoring device 3B so that the intruder's automatic tracking performed by the telephoto camera 12A included in the monitoring device 3A is taken over by the telephoto camera 12A included in the monitoring device 3B. Thereby, automatic tracking of the intruder straddling the monitoring areas 4A and 4B is performed.

このように本実施の形態に係る監視システム5(及び監視装置3)によれば、望遠カメラ12Aは、広角カメラ11によって撮影された撮影画像内に侵入者が含まれている場合に、当該侵入者を自動追跡して撮影することにより、当該侵入者の拡大画像300を取得して表示装置6に表示する。このように、監視エリア4への侵入者を望遠カメラ12Aによって自動追跡して撮影することにより、侵入者の拡大画像300を漏れなく撮影することが可能となる。また、望遠カメラ12Bは、オペレータによって遠隔操作されることにより、監視エリア4内の所望箇所の画像を取得して表示装置6に表示する。従って、複数の侵入者が同時に監視エリア4に侵入した場合であっても、望遠カメラ12Aによって撮影している侵入者とは異なる侵入者を望遠カメラ12Bによって撮影することができる。その結果、複数の侵入者を漏れなく撮影することが可能となる。   As described above, according to the monitoring system 5 (and the monitoring apparatus 3) according to the present embodiment, the telephoto camera 12A is intruded when an intruder is included in the captured image captured by the wide-angle camera 11. By automatically tracking and photographing a person, an enlarged image 300 of the intruder is acquired and displayed on the display device 6. Thus, by automatically tracking and shooting the intruder into the monitoring area 4 with the telephoto camera 12A, the enlarged image 300 of the intruder can be taken without omission. Further, the telephoto camera 12B acquires an image of a desired location in the monitoring area 4 and displays it on the display device 6 by being remotely operated by an operator. Therefore, even when a plurality of intruders enter the monitoring area 4 at the same time, an intruder different from the intruder that is captured by the telephoto camera 12A can be captured by the telephoto camera 12B. As a result, a plurality of intruders can be photographed without omission.

また、本実施の形態に係る監視システム5によれば、望遠カメラ12Bは、オペレータの遠隔操作による所望箇所の撮影(手動撮影モード)と、自動追跡による侵入者の撮影(自動追跡モード)とを切り換え可能である。従って、複数の侵入者が同時に監視エリア4に侵入した場合に、望遠カメラ12A,12Bを用いて複数の侵入者を自動追跡して撮影するという動作と、望遠カメラ12Aによって侵入者を自動追跡して撮影しつつ、望遠カメラ12Bによって他の所望の侵入者を撮影するという動作とを切り換えることができるため、ユーザの利便性を向上することができる。   Further, according to the monitoring system 5 according to the present embodiment, the telephoto camera 12B performs imaging of a desired location by remote operation of the operator (manual imaging mode) and imaging of an intruder by automatic tracking (automatic tracking mode). Switching is possible. Therefore, when a plurality of intruders intrude into the monitoring area 4 at the same time, an operation of automatically tracking and photographing a plurality of intruders using the telephoto cameras 12A and 12B, and the intruders are automatically tracked by the telephoto camera 12A. Since the telephoto camera 12B can switch the operation of photographing another desired intruder while photographing, it is possible to improve user convenience.

また、本実施の形態に係る監視システムに5よれば、望遠カメラ12Aによって撮影されている監視エリア4内の位置と、望遠カメラ12Bによって撮影されている監視エリア4内の位置と、監視エリア4内における侵入者の位置と、を示す位置情報マップ250が、表示装置6に表示される。従って、オペレータは、当該位置情報マップ250に基づいて、手動撮影モードの望遠カメラ12Bによって次に撮影すべき侵入者を容易に特定することができるため、複数の侵入者を漏れなく撮影することが可能となる。   Further, according to the monitoring system 5 according to the present embodiment, the position in the monitoring area 4 photographed by the telephoto camera 12A, the position in the monitoring area 4 photographed by the telephoto camera 12B, and the monitoring area 4 A position information map 250 indicating the position of the intruder is displayed on the display device 6. Therefore, since the operator can easily identify the intruder to be photographed next by the telephoto camera 12B in the manual photographing mode based on the position information map 250, it is possible to photograph a plurality of intruders without omission. It becomes possible.

また、本実施の形態に係る監視システム5によれば、材質分析部39Aは、撮影画像200Aのうち移動物体に対応する画像領域71〜73に関して、赤外域を含む特定の複数の波長のスペクトルを検出し、当該検出の結果に基づいて移動物体の材質を分析する。従って、材質分析の結果、移動物体に対応する画像領域71〜73内に人肌や化学繊維等が含まれている場合には、その移動物体は人間であると識別することができる。その結果、所定の監視エリア4内に移動物体が含まれている場合に、その移動物体が人間であるかそれ以外の動物等であるかを正確に識別することが可能となる。また、特徴データ生成部24Aは、材質分析部39Aによって分析された移動物体の材質に関するパラメータを含めて、当該移動物体の特徴量を表す特徴データを生成する。そして、追跡処理部44は、当該特徴データに基づいて移動物体の自動追跡を行う。従って、監視エリア4内で移動する個々の移動物体を、各移動物体に関する特徴データに基づいて正確に追跡することができる。   Further, according to the monitoring system 5 according to the present embodiment, the material analysis unit 39A obtains spectra of specific wavelengths including the infrared region for the image regions 71 to 73 corresponding to the moving object in the photographed image 200A. Detecting and analyzing the material of the moving object based on the detection result. Therefore, when human skin, chemical fiber, or the like is included in the image areas 71 to 73 corresponding to the moving object as a result of the material analysis, the moving object can be identified as a human. As a result, when a moving object is included in the predetermined monitoring area 4, it is possible to accurately identify whether the moving object is a human being or an animal other than that. In addition, the feature data generation unit 24A generates the feature data representing the feature amount of the moving object including the parameter related to the material of the moving object analyzed by the material analysis unit 39A. Then, the tracking processing unit 44 automatically tracks the moving object based on the feature data. Therefore, each moving object that moves in the monitoring area 4 can be accurately tracked based on the feature data relating to each moving object.

また、本実施の形態に係る監視システム5によれば、図19に示したように、各移動物体に関する特徴データに基づくことにより、異なる監視エリア4A〜4Dを跨ぐ移動物体の自動追跡を正確に行うことが可能となる。   Further, according to the monitoring system 5 according to the present embodiment, as shown in FIG. 19, the automatic tracking of the moving object across the different monitoring areas 4A to 4D is accurately performed based on the feature data regarding each moving object. Can be done.

なお、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined not by the above-mentioned meaning but by the scope of claims for patent, and is intended to include all modifications within the scope and meaning equivalent to the scope of claims for patent.

3,3A〜3D 監視装置
4,4A〜4D 監視エリア
5 監視システム
6 表示装置
11A,11B 広角カメラ
12A,12B 望遠カメラ
21 撮影部
22 分析部
23,23A,23B 識別部
24,24A,24B 特徴データ生成部
39A,39B 材質分析部
43 位置特定部
44 追跡処理部
250 位置情報マップ
3, 3A to 3D monitoring device 4, 4A to 4D monitoring area 5 monitoring system 6 display device 11A, 11B wide angle camera 12A, 12B telephoto camera 21 imaging unit 22 analysis unit 23, 23A, 23B identification unit 24, 24A, 24B characteristic data Generation unit 39A, 39B Material analysis unit 43 Position specifying unit 44 Tracking processing unit 250 Location information map

Claims (6)

監視装置と、
表示装置と、
を備え、
前記監視装置は、
所定の監視エリアを撮影する、第1の撮影手段と、
前記第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該移動物体を自動追跡して撮影することにより、当該移動物体の拡大画像を取得して前記表示装置に表示する、第2の撮影手段と、
オペレータによって遠隔操作されることにより、前記第1の撮影手段及び前記第2の撮影手段とは独立して、前記監視エリア内の所望箇所の画像を取得して前記表示装置に表示可能な、第3の撮影手段と、
を有する、監視システム。
A monitoring device;
A display device;
With
The monitoring device
First imaging means for imaging a predetermined monitoring area;
When a moving object is included in the captured image captured by the first imaging unit, the display device is configured to acquire an enlarged image of the moving object by automatically tracking and capturing the moving object. A second photographing means for displaying on
By being remotely operated by an operator, an image of a desired location in the monitoring area can be acquired and displayed on the display device independently of the first imaging unit and the second imaging unit. 3 shooting means;
Having a monitoring system.
前記第3の撮影手段は、オペレータの遠隔操作による所望箇所の撮影と、自動追跡による移動物体の撮影とを切り換え可能である、請求項1に記載の監視システム。   The monitoring system according to claim 1, wherein the third imaging unit is capable of switching between imaging of a desired location by an operator's remote operation and imaging of a moving object by automatic tracking. 前記第2の撮影手段によって撮影されている前記監視エリア内の位置と、前記第3の撮影手段によって撮影されている前記監視エリア内の位置と、前記監視エリア内における前記移動物体の位置と、を示す位置情報が、前記表示装置にさらに表示される、請求項1又は2に記載の監視システム。   A position in the monitoring area being imaged by the second imaging means, a position in the monitoring area being imaged by the third imaging means, and a position of the moving object in the monitoring area; The monitoring system according to claim 1, wherein position information indicating is further displayed on the display device. 前記第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該撮影画像のうち当該移動物体に対応する画像領域に関して、赤外域を含む特定の複数の波長のスペクトルを検出し、当該検出の結果に基づいて前記移動物体の材質を分析する材質分析手段と、
前記移動物体の材質に関するパラメータを含めて、当該移動物体の特徴量を表す特徴データを生成するデータ生成手段と、
をさらに備え、
前記特徴データに基づいて前記移動物体の自動追跡が行われる、請求項1〜3のいずれか一つに記載の監視システム。
When a moving object is included in the captured image captured by the first capturing unit, a spectrum of a plurality of specific wavelengths including an infrared region with respect to an image region corresponding to the moving object in the captured image. And material analysis means for analyzing the material of the moving object based on the detection result;
Data generation means for generating feature data representing the feature amount of the moving object, including parameters relating to the material of the moving object;
Further comprising
The monitoring system according to claim 1, wherein the moving object is automatically tracked based on the feature data.
複数の前記監視装置によって複数の前記監視エリアが撮影され、
前記特徴データに基づいて、異なる監視エリアを跨ぐ前記移動物体の自動追跡が行われる、請求項4に記載の監視システム。
A plurality of the monitoring areas are photographed by a plurality of the monitoring devices,
The monitoring system according to claim 4, wherein automatic tracking of the moving object across different monitoring areas is performed based on the feature data.
所定の監視エリアを撮影する、第1の撮影手段と、
前記第1の撮影手段によって撮影された撮影画像内に移動物体が含まれている場合に、当該移動物体を自動追跡して撮影することにより、当該移動物体の拡大画像を取得する、第2の撮影手段と、
オペレータによって遠隔操作されることにより、前記第1の撮影手段及び前記第2の撮影手段とは独立して、前記監視エリア内の所望箇所の画像を取得する、第3の撮影手段と、
を備える、監視装置。

First imaging means for imaging a predetermined monitoring area;
When a moving object is included in a captured image captured by the first imaging unit, an enlarged image of the moving object is acquired by automatically tracking and capturing the moving object; Photographing means;
A third imaging unit that obtains an image of a desired location in the monitoring area independently from the first imaging unit and the second imaging unit by being remotely operated by an operator;
A monitoring device comprising:

JP2010256089A 2010-11-16 2010-11-16 Monitoring system and monitoring device Expired - Fee Related JP5664161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010256089A JP5664161B2 (en) 2010-11-16 2010-11-16 Monitoring system and monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010256089A JP5664161B2 (en) 2010-11-16 2010-11-16 Monitoring system and monitoring device

Publications (2)

Publication Number Publication Date
JP2012109733A true JP2012109733A (en) 2012-06-07
JP5664161B2 JP5664161B2 (en) 2015-02-04

Family

ID=46494899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010256089A Expired - Fee Related JP5664161B2 (en) 2010-11-16 2010-11-16 Monitoring system and monitoring device

Country Status (1)

Country Link
JP (1) JP5664161B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082688A (en) * 2012-10-17 2014-05-08 Dainippon Printing Co Ltd Recording control device, program for recording control, and recording control method
WO2014136979A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
WO2014136978A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
JP2014175846A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175844A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175843A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
JP2014175845A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
WO2017073520A1 (en) * 2015-10-26 2017-05-04 三郎 山内 Object recognition system, object recognition method, program, and computer storage medium
WO2017199556A1 (en) * 2016-05-17 2017-11-23 富士フイルム株式会社 Stereo camera and stereo camera control method
WO2019111375A1 (en) * 2017-12-07 2019-06-13 圭史朗 金森 Monitoring device, monitoring system, monitoring method, and monitoring program
CN110445978A (en) * 2019-06-24 2019-11-12 华为技术有限公司 A kind of image pickup method and equipment
JP2020022052A (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Information processing apparatus and control method of the same
JP6844055B1 (en) * 2020-05-29 2021-03-17 丸善インテック株式会社 Surveillance camera
CN113393696A (en) * 2020-03-12 2021-09-14 标致雪铁龙汽车股份有限公司 Vehicle positioning system and use method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259775A (en) * 1998-03-09 1999-09-24 Piimakku Japan:Kk Monitoring system
JPH11284988A (en) * 1998-03-27 1999-10-15 Mitsubishi Electric Corp Supervisory camera system
JP2005184776A (en) * 2003-11-27 2005-07-07 Sony Corp Imaging device and its method, monitoring system, program and recording medium
JP2008507229A (en) * 2004-07-19 2008-03-06 グランドアイ,エルティーディー Automatic expansion of zoom function of wide-angle video camera
JP2009017416A (en) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp Device and method for monitoring, and program
JP2010217149A (en) * 2009-03-19 2010-09-30 Tokyo Institute Of Technology Object discerning device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259775A (en) * 1998-03-09 1999-09-24 Piimakku Japan:Kk Monitoring system
JPH11284988A (en) * 1998-03-27 1999-10-15 Mitsubishi Electric Corp Supervisory camera system
JP2005184776A (en) * 2003-11-27 2005-07-07 Sony Corp Imaging device and its method, monitoring system, program and recording medium
JP2008507229A (en) * 2004-07-19 2008-03-06 グランドアイ,エルティーディー Automatic expansion of zoom function of wide-angle video camera
JP2009017416A (en) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp Device and method for monitoring, and program
JP2010217149A (en) * 2009-03-19 2010-09-30 Tokyo Institute Of Technology Object discerning device

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082688A (en) * 2012-10-17 2014-05-08 Dainippon Printing Co Ltd Recording control device, program for recording control, and recording control method
US9905096B2 (en) 2013-03-08 2018-02-27 Denso Wave Incorporated Apparatus and method of monitoring moving objects
JP2014175843A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
US10026284B2 (en) 2013-03-08 2018-07-17 Denso Wave Incorporated Apparatus and method of monitoring moving objects
JP2014175844A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
US10043359B2 (en) 2013-03-08 2018-08-07 Denso Wave Incorporated Apparatus and method of monitoring moving objects
JP2014175845A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
GB2527458A (en) * 2013-03-08 2015-12-23 Denso Corp Device and method for monitoring moving entity
CN105247856A (en) * 2013-03-08 2016-01-13 株式会社电装 Device and method for monitoring moving entity
GB2529569A (en) * 2013-03-08 2016-02-24 Denso Corp Device and method for monitoring moving entity
KR101742632B1 (en) 2013-03-08 2017-06-01 가부시키가이샤 덴소 Device and method for monitoring moving entity
KR101742634B1 (en) 2013-03-08 2017-06-01 가부시키가이샤 덴소 Device and method for monitoring moving entity
WO2014136978A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
JP2014175846A (en) * 2013-03-08 2014-09-22 Denso Wave Inc Control method for monitoring device
WO2014136979A1 (en) * 2013-03-08 2014-09-12 株式会社デンソーウェーブ Device and method for monitoring moving entity
WO2017073520A1 (en) * 2015-10-26 2017-05-04 三郎 山内 Object recognition system, object recognition method, program, and computer storage medium
WO2017199556A1 (en) * 2016-05-17 2017-11-23 富士フイルム株式会社 Stereo camera and stereo camera control method
JPWO2017199556A1 (en) * 2016-05-17 2019-04-04 富士フイルム株式会社 Stereo camera and control method of stereo camera
US10863164B2 (en) 2016-05-17 2020-12-08 Fujifilm Corporation Stereo camera and method of controlling stereo camera
WO2019111375A1 (en) * 2017-12-07 2019-06-13 圭史朗 金森 Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020022052A (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Information processing apparatus and control method of the same
WO2020026901A1 (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Information processor and method for controlling same
JP7146507B2 (en) 2018-07-31 2022-10-04 キヤノン株式会社 Information processing device and its control method
CN110445978A (en) * 2019-06-24 2019-11-12 华为技术有限公司 A kind of image pickup method and equipment
CN110445978B (en) * 2019-06-24 2020-12-15 华为技术有限公司 Shooting method and equipment
US11375120B2 (en) 2019-06-24 2022-06-28 Huawei Technologies Co., Ltd. Method and device for assisting capturing of an image
CN113393696A (en) * 2020-03-12 2021-09-14 标致雪铁龙汽车股份有限公司 Vehicle positioning system and use method thereof
JP6844055B1 (en) * 2020-05-29 2021-03-17 丸善インテック株式会社 Surveillance camera
JP2021190864A (en) * 2020-05-29 2021-12-13 丸善インテック株式会社 Monitor camera
TWI772029B (en) * 2020-05-29 2022-07-21 日商丸善伊到可股份有限公司 surveillance camera

Also Published As

Publication number Publication date
JP5664161B2 (en) 2015-02-04

Similar Documents

Publication Publication Date Title
JP5664161B2 (en) Monitoring system and monitoring device
EP2467805B1 (en) Method and system for image analysis
US8410441B2 (en) Thermal imaging camera for taking thermographic images
KR101073076B1 (en) Fire monitoring system and method using compound camera
RU2702160C2 (en) Tracking support apparatus, tracking support system, and tracking support method
EP2608531A2 (en) Thermal imaging camera for infrared rephotography
JP7036423B2 (en) Controls, control methods and control programs
JP2009212637A (en) Imaging device
CN105100596B (en) Camera apparatus and the method for using camera apparatus tracking object
JP2007116208A (en) Compound eye imaging apparatus
JP2006229322A (en) Automatic tracking controller and automatic tracking control method, program, and automatic tracking system
CN109636763B (en) Intelligent compound eye monitoring system
JP6679856B2 (en) Display control device, display control method, and program
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
JP5605565B2 (en) Object identification device and object identification method
JP5187275B2 (en) Photographing method and photographing apparatus
JP5771955B2 (en) Object identification device and object identification method
JP5845858B2 (en) Object detection apparatus and object detection method
KR20110121426A (en) System for observation moving objects
JP2009301175A (en) Monitoring method
KR20070006390A (en) Tracking method and system for tracking with multiple point-of view
JP6842968B2 (en) Monitoring system
KR101738514B1 (en) Monitoring system employing fish-eye thermal imaging camera and monitoring method using the same
JP5699557B2 (en) Object identification device and object identification method
JP2006025340A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R150 Certificate of patent or registration of utility model

Ref document number: 5664161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees