JP2012099014A - Passing vehicle monitoring system and passing vehicle monitoring device - Google Patents

Passing vehicle monitoring system and passing vehicle monitoring device Download PDF

Info

Publication number
JP2012099014A
JP2012099014A JP2010247687A JP2010247687A JP2012099014A JP 2012099014 A JP2012099014 A JP 2012099014A JP 2010247687 A JP2010247687 A JP 2010247687A JP 2010247687 A JP2010247687 A JP 2010247687A JP 2012099014 A JP2012099014 A JP 2012099014A
Authority
JP
Japan
Prior art keywords
display
monitoring
information
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010247687A
Other languages
Japanese (ja)
Other versions
JP5502700B2 (en
Inventor
Noboru Nashiki
登 梨木
Hirotaka Yajima
浩孝 矢島
Eiji Kawamura
英二 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SAIBUAASU KK
Saxa Inc
Original Assignee
SAIBUAASU KK
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAIBUAASU KK, Saxa Inc filed Critical SAIBUAASU KK
Priority to JP2010247687A priority Critical patent/JP5502700B2/en
Publication of JP2012099014A publication Critical patent/JP2012099014A/en
Application granted granted Critical
Publication of JP5502700B2 publication Critical patent/JP5502700B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a passing vehicle monitoring system and vehicle monitoring cameras which can accurately recognize passing vehicles on a road, be easily installed, and display a state of surroundings of a monitored place and facility information around the monitored place.SOLUTION: A passing vehicle monitoring system 1 comprises a plurality of monitoring cameras 2 which are connected in a daisy chain manner and photograph vehicle passing conditions, and a center device 4 connected to the plurality of monitoring cameras. The center device 4 comprises: an image reconfiguring section for reconfiguring to display an image of a recognized vehicle for display, an image of a facility for display of a building structure where the plurality of monitoring cameras 2 are installed, and an image of a building structure on a monitor 6 in accordance with a specified display form; and an information display image generating section for generating an information display image to display information about the facility displayed on the monitor 6 in association with the image of the facility for display displayed on the monitor 6.

Description

本発明は、通行車両監視システム及び通行車両監視装置に関する。   The present invention relates to a traffic vehicle monitoring system and a traffic vehicle monitoring device.

従来より、道路上を通行する車両の事故防止等のために車両監視システムが広く実用化されている。車両監視システムには、車両を撮影した画像の車両のナンバープレートから車両番号を認識するもの、運転席画像を記録するもの、等がある。   Conventionally, vehicle monitoring systems have been widely put into practical use in order to prevent accidents of vehicles traveling on roads. Examples of the vehicle monitoring system include one that recognizes a vehicle number from a vehicle license plate of an image obtained by photographing the vehicle, and one that records a driver's seat image.

また、特にトンネル内で発生する所定の事象を監視し、事故の発生を未然に防止するために情報掲示板にメッセージを表示し、さらに毒物を運搬する車両を検出するトンネル内監視システムも提案されている(例えば、特許文献1参照)。   In addition, a tunnel monitoring system has been proposed that monitors specific events that occur in tunnels, displays messages on information boards to prevent accidents from occurring, and detects vehicles that carry poisons. (For example, refer to Patent Document 1).

特開2003−272086号公報JP 2003-272086 A

しかし、従来のいずれの監視装置あるいは監視システムも、撮影画像から対象物の立体的な大きさは認識することができない。
例えばトンネル内で道路上の落下物が新聞紙のような薄い物であれば、事故の発生する危険度は高くないが、落下物が段ボール箱のような立体的な物であれば、事故の発生する危険度は高い。また、撮影された対象物の実際の大きさ及びその立体形状が不明なため、物の認識、例えば人の認識、の精度も低い。
However, any conventional monitoring device or monitoring system cannot recognize the three-dimensional size of the object from the captured image.
For example, if the falling object on the road in the tunnel is a thin object such as newspaper, the risk of an accident is not high, but if the falling object is a three-dimensional object such as a cardboard box, an accident will occur. The risk is high. In addition, since the actual size of the photographed object and its three-dimensional shape are unknown, the accuracy of object recognition, for example, human recognition, is low.

また、例えばトンネルの場合、法令等により所定の長さ以上のトンネルにしか監視カメラの設置義務がなく、かつ監視カメラの設置コストが高いため、監視カメラの設置がされていないトンネルが多く、さらに監視カメラの設置がされているトンネルでも、カメラの設置台数も少ない、という問題がある。
さらに、監視室では、監視カメラにより撮像された画像をモニタに表示させても、監視員は、モニタに映し出された車両についての、表示された画像情報以上の情報等を得ることはできない。
Also, for example, in the case of tunnels, surveillance cameras are obligated to be installed only in tunnels of a predetermined length or longer due to laws and regulations, and the installation cost of surveillance cameras is high, so there are many tunnels where surveillance cameras are not installed, Even in tunnels where surveillance cameras are installed, there is a problem that the number of cameras installed is small.
Furthermore, in the monitoring room, even if an image captured by the monitoring camera is displayed on the monitor, the monitoring staff cannot obtain information on the vehicle displayed on the monitor beyond the displayed image information.

例えば、道路上で事故が発生したときに、事故現場及びその周囲の画像をモニタに表示させても、遠くに映し出された車両は見えづらく、緊急電話の位置、退避室の位置なども見えづらい場合がある。そのため、事故現場に向かったあるいは事故現場に居る救助隊員などへの事故現場の状況の説明、避難誘導の指示、等も正確にできない場合がある。   For example, when an accident occurs on a road, even if the image of the accident site and its surroundings are displayed on the monitor, it is difficult to see the vehicle reflected far away, and the location of the emergency call and the evacuation room are difficult to see. There is a case. For this reason, it may not be possible to accurately explain the situation of the accident site, the instruction of evacuation guidance, etc. to a rescue team member or the like heading to the accident site.

そこで、本発明は、道路上の通行車両を正確に認識し、設置が容易で、かつ監視場所周囲の状況、及び監視場所周辺の設備情報を表示できる通行車両監視システム及び通行車両監視装置を提供することを目的とする。   Therefore, the present invention provides a traffic vehicle monitoring system and a traffic vehicle monitoring device that can accurately recognize a traffic vehicle on a road, can be easily installed, and can display a situation around a monitoring location and equipment information around the monitoring location. The purpose is to do.

本発明の一態様によれば、数珠繋ぎに接続され、車両の通行状況を撮像する複数の監視カメラと、その複数の監視カメラに接続されたセンタ装置とからなる通行車両監視システムであって、各監視カメラは、複数の撮像部と、前記複数の撮像部において得られた複数の画像から距離画像のデータを生成する距離画像生成部と、前記距離画像に基づく第1の監視処理を実行する第1の監視処理部と、記憶部と、前記距離画像に基づいて認識された車両の識別情報を生成して、その識別情報と、その認識された車両についての時刻情報とを含む情報を前記記憶部に記録する記録処理部と、前記距離画像に基づいて、前記第1の監視処理とは別の第2の監視処理を実行する第2の監視処理部と、を有し、前記センタ装置は、前記複数のカメラからの前記距離画像のデータと、前記距離画像のデータに基づいて認識された車両の識別情報とを受信するカメラ情報受信部と、前記認識された車両の表示用画像と、前記複数の監視カメラが設置された建築構造物に関わる設備の表示用画像と、前記建築構造物の画像とを、指定された表示形態に従って、表示装置に表示するために再構築する画像再構築部と、該画像再構築部で再構築されて前記表示装置に表示された前記設備に関する情報を、前記表示装置に表示された前記設備の表示用画像と関連付けて表示するための情報表示画像を生成する情報表示画像生成部と、を有することを特徴とする通行車両監視システムを提供することができる。   According to an aspect of the present invention, there is provided a traffic vehicle monitoring system including a plurality of surveillance cameras connected to a rosary and imaging a vehicle traffic situation, and a center device connected to the plurality of surveillance cameras. The monitoring camera includes a plurality of imaging units, a distance image generation unit that generates distance image data from a plurality of images obtained by the plurality of imaging units, and a first monitoring process that executes a first monitoring process based on the distance image. And generating information for identifying the vehicle recognized based on the distance image, and storing the information including the identification information and time information about the recognized vehicle. A recording processing unit for recording in the unit, and a second monitoring processing unit for executing a second monitoring process different from the first monitoring process based on the distance image, wherein the center device is , From the plurality of cameras A camera information receiving unit that receives the data of the recording image and the identification information of the vehicle recognized based on the data of the distance image, the display image of the recognized vehicle, and the plurality of monitoring cameras are installed. An image reconstructing unit that reconstructs an image for displaying facilities related to the constructed building structure and an image of the building structure in order to display the image on the display device in accordance with a designated display form, and the image reconstruction An information display image generation unit that generates an information display image for displaying information related to the facility reconstructed by the unit and displayed on the display device in association with the display image of the facility displayed on the display device It is possible to provide a passing vehicle monitoring system characterized by comprising:

本発明によれば、道路上の通行車両を正確に認識し、設置が容易で、かつ監視場所周囲の状況、及び監視場所周辺の設備情報を表示できる通行車両監視システム及び通行車両監視装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the traffic vehicle monitoring system and traffic vehicle monitoring apparatus which can recognize the traffic vehicle on a road correctly, are easy to install, and can display the surrounding condition of a monitoring place and the equipment information around a monitoring place are provided. can do.

本発明の実施の形態に係わる通行車両監視システムの構成を説明するための図である。It is a figure for demonstrating the structure of the passing vehicle monitoring system concerning embodiment of this invention. 本発明の実施の形態に係わる、トンネル内における監視カメラの設置状況を示す図である。It is a figure which shows the installation condition of the monitoring camera in a tunnel concerning embodiment of this invention. 本発明の実施の形態に係わる監視カメラの外観図である。1 is an external view of a surveillance camera according to an embodiment of the present invention. 本発明の実施の形態に係わる監視カメラ2の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the surveillance camera 2 concerning embodiment of this invention. 本発明の実施の形態に係わる基本監視処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the basic monitoring process concerning embodiment of this invention. 本発明の実施の形態に係わるコマンド処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the command processing concerning embodiment of this invention. 図5及び図6における異常処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the abnormality process in FIG.5 and FIG.6. 本発明の実施の形態に係わる、センタ装置4における異常処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the abnormality process in the center apparatus 4 concerning embodiment of this invention. 本発明の実施の形態に係わる、モニタ6上に表示される監視画面の例を示す図である。It is a figure which shows the example of the monitoring screen displayed on the monitor 6 concerning embodiment of this invention. 図9の画面の表示処理の流れの例を示すフローチャートである。10 is a flowchart illustrating an example of a flow of display processing of the screen in FIG. 9. 本発明の実施の形態に係わるログデータのデータ構造を示す図である。It is a figure which shows the data structure of the log data concerning embodiment of this invention. 本発明の実施の形態に係わる、センタ装置4における車両IDの関連付けを説明するための図である。It is a figure for demonstrating correlation of vehicle ID in the center apparatus 4 concerning embodiment of this invention. 本発明の実施の形態に係わるトンネル内のある監視場所の周囲及び設備の状況を示す図である。It is a figure which shows the circumference | surroundings of a certain monitoring place in the tunnel concerning the embodiment of this invention, and the condition of an installation. 本発明の実施の形態に係わる状況表示画面の例を示す図である。It is a figure which shows the example of the condition display screen concerning embodiment of this invention. 図14の表示画像を生成するためのソフトウエア処理の構成を示すブロック図である。It is a block diagram which shows the structure of the software process for producing | generating the display image of FIG. 本発明の実施の形態に係わる、状況表示画面の他の例を示す図である。It is a figure which shows the other example of the condition display screen concerning embodiment of this invention.

以下、図面を参照して本発明の実施の形態を説明する。
(システム構成)
まず図1に基づき、本実施の形態に係わるシステムの構成を説明する。図1は、本実施の形態に係わる通行車両監視システムの構成を説明するための図である。図2は、トンネル内における監視カメラの設置状況を示す図である。図3は、監視カメラの外観図である。
Embodiments of the present invention will be described below with reference to the drawings.
(System configuration)
First, based on FIG. 1, the structure of the system concerning this Embodiment is demonstrated. FIG. 1 is a diagram for explaining the configuration of a passing vehicle monitoring system according to the present embodiment. FIG. 2 is a diagram showing the installation status of the monitoring camera in the tunnel. FIG. 3 is an external view of the surveillance camera.

図1に示すように、トンネル内を監視する交通監視システム1は、それぞれがステレオカメラである複数の監視カメラ2と、隣り合う2台の監視カメラ2を接続する通信ケーブル3と、複数の監視カメラ2の中の1台と通信ケーブル3により接続されたセンタ装置4と、センタ装置4に接続された記憶装置5と、センタ装置4に接続された画像表示装置であるモニタ6とを含んで構成されている。   As shown in FIG. 1, a traffic monitoring system 1 for monitoring the inside of a tunnel includes a plurality of monitoring cameras 2, each of which is a stereo camera, a communication cable 3 that connects two adjacent monitoring cameras 2, and a plurality of monitoring cameras. A center device 4 connected to one of the cameras 2 by a communication cable 3, a storage device 5 connected to the center device 4, and a monitor 6 that is an image display device connected to the center device 4 are included. It is configured.

図1に示すように、トンネル101の一端TAに設置される監視カメラ2(1)から他端TBまでの監視カメラ2(n)のn台(nは整数)の監視カメラ2が、トンネル内の天井側に、略等間隔に配置されている。図1では、各監視カメラ2には、識別番号が付されて示されている。1番目の監視カメラ2(1)からn番目の監視カメラ2(n)までが、通信ケーブル3で数珠繋ぎに接続され、監視カメラ2(1)がセンタ装置4に接続されている。なお、以下の説明で、特定の監視カメラを指さない場合は、監視カメラ2と表記する。   As shown in FIG. 1, n (n is an integer) number of surveillance cameras 2 (n is an integer) of surveillance cameras 2 (n) from the surveillance camera 2 (1) installed at one end TA of the tunnel 101 to the other end TB. Are arranged at substantially equal intervals on the ceiling side. In FIG. 1, each surveillance camera 2 is shown with an identification number. The first monitoring camera 2 (1) to the n th monitoring camera 2 (n) are connected in a daisy chain by the communication cable 3, and the monitoring camera 2 (1) is connected to the center device 4. In the following description, the term “surveillance camera 2” is used when a specific surveillance camera is not pointed out.

通信ケーブル3は、電源供給可能な信号線であり、例えば、電源供給も可能なパワー・オーバ・イーサネット(登録商標)(PoE)対応のケーブルである。センタ装置4は、電源回路を含み、電源回路の電源は、通信ケーブル3を介して各監視カメラ2に供給される。   The communication cable 3 is a signal line capable of supplying power, for example, a cable compatible with Power over Ethernet (registered trademark) (PoE) capable of supplying power. The center device 4 includes a power supply circuit, and the power of the power supply circuit is supplied to each monitoring camera 2 via the communication cable 3.

センタ装置4、記憶装置5及びモニタ6は、例えば、監視室に配置されている。センタ装置4には、記憶装置5とモニタ6が接続されており、センタ装置4は、所定のデータを記憶装置5に記憶し、モニタ6に監視用画面を表示する。よって、監視員は、センタ装置4を操作して、モニタ6に所望の画像を表示させることができる。記憶装置5には、後述する、各種データを記憶する複数の記憶部、具体的には、基準データ記憶部5a、処理内容データ記憶部5b、関連情報記憶部5c、設備表示情報記憶部5d、車両表示情報記憶部5e、建築構造物表示情報記憶部5fを含む。   The center device 4, the storage device 5, and the monitor 6 are arranged in a monitoring room, for example. A storage device 5 and a monitor 6 are connected to the center device 4, and the center device 4 stores predetermined data in the storage device 5 and displays a monitoring screen on the monitor 6. Therefore, the monitor can operate the center device 4 to display a desired image on the monitor 6. The storage device 5 includes a plurality of storage units for storing various data, which will be described later, specifically, a reference data storage unit 5a, a processing content data storage unit 5b, a related information storage unit 5c, an equipment display information storage unit 5d, A vehicle display information storage unit 5e and a building structure display information storage unit 5f are included.

センタ装置4には、設備管理装置7が接続されている。設備管理装置7は、トンネル101に関わる各種設備、例えば換気扇、避難口、の制御及び管理を行う装置である。設備管理装置7は、各設備の動作を指示し、例えばオン、オフを指示し、かつ各設備の動作状況を監視し、その動作状態の情報をセンタ装置4へ供給可能となっている。   A facility management device 7 is connected to the center device 4. The facility management device 7 is a device that controls and manages various facilities related to the tunnel 101, for example, a ventilation fan and an escape port. The facility management apparatus 7 can instruct the operation of each facility, for example, instruct on on and off, monitor the operation status of each facility, and supply information on the operation state to the center device 4.

図1に示すように、複数の監視カメラ2が、通信ケーブル3によりデイジーチェーン接続されて、すなわち数珠繋ぎで接続されて、センタ装置4に接続されている。図2に示すように、各監視カメラ2は、トンネル101の内壁の天井部分102の最も高い位置よりもやや低いところに、トンネル101の経路方向に沿って、所定の間隔Ltを持って設置されている。所定の間隔Ltは、隣り合う監視カメラ2の撮影範囲PAが一部重なるように、設定される。所定の間隔Ltは、例えば10mである。   As shown in FIG. 1, a plurality of surveillance cameras 2 are daisy chained by a communication cable 3, that is, connected in a daisy chain, and are connected to a center device 4. As shown in FIG. 2, each surveillance camera 2 is installed at a predetermined distance Lt along the route direction of the tunnel 101 at a position slightly lower than the highest position of the ceiling portion 102 of the inner wall of the tunnel 101. ing. The predetermined interval Lt is set so that the shooting ranges PA of the adjacent monitoring cameras 2 partially overlap. The predetermined interval Lt is, for example, 10 m.

監視カメラ2間の通信及び監視カメラ2とセンタ装置4間の通信は、イーサネット(登録商標)を利用したデータ通信である。各監視カメラ2からのデータは、デイジーチェーン接続のネットワークを介して、センタ装置4へ送信可能である。また、センタ装置4も、全てのあるいは所望の監視カメラ2へ、撮影画像の送信要求のコマンド、等の各種コマンドを送信することができる。従って、センタ装置4は、監視カメラ2からの動画像の画像情報、認識情報、イベント情報等を、センタ装置4からのコマンドに応じて、デイジーチェーン接続のネットワークを介して、取得することができる。
なお、図1では、センタ装置4が1つのトンネルを監視する例であるが、センタ装置4は、複数のトンネルを監視するようにしてもよい。
Communication between the monitoring cameras 2 and communication between the monitoring cameras 2 and the center device 4 are data communication using Ethernet (registered trademark). Data from each monitoring camera 2 can be transmitted to the center device 4 via a daisy chain network. The center device 4 can also transmit various commands such as a command for requesting transmission of captured images to all or desired monitoring cameras 2. Therefore, the center device 4 can acquire the image information, recognition information, event information, and the like of the moving image from the monitoring camera 2 via the daisy chain connection network in accordance with the command from the center device 4. .
Although FIG. 1 shows an example in which the center device 4 monitors one tunnel, the center device 4 may monitor a plurality of tunnels.

図3に示すように、車両用監視カメラである監視カメラ2は、細長い直方体の形状のケーシング11を有する。2つの対物光学系12が、細長いケーシング11の一側面に、所定の距離だけ離れて光軸が互いに平行になるように設けられている。ケーシング11内には、各対物光学系の結像位置に、CMOSイメージセンサ等の撮像素子が設けられている。2つの対物光学系12の設けられた面が、道路面103に対向するように、各監視カメラ2は、天井部分102に設置される。   As shown in FIG. 3, the surveillance camera 2 that is a surveillance camera for vehicles has a casing 11 in the shape of an elongated rectangular parallelepiped. Two objective optical systems 12 are provided on one side of the elongated casing 11 so that their optical axes are parallel to each other with a predetermined distance. An imaging element such as a CMOS image sensor is provided in the casing 11 at the imaging position of each objective optical system. Each surveillance camera 2 is installed on the ceiling portion 102 so that the surface on which the two objective optical systems 12 are provided faces the road surface 103.

なお、ここでは、各監視カメラ2は、ステレオ撮像のために2つの撮像素子を有している例で説明するが、撮像素子は、3つ以上でもよく、少なくとも2つの撮像素子を有していればよい。   Here, each monitoring camera 2 will be described as an example having two image sensors for stereo imaging, but there may be three or more image sensors, and at least two image sensors. Just do it.

また、ケーシング11の両端面には、通信ケーブル3を接続するためのコネクタ13が設けられており、複数の監視カメラ2を互いにデイジーチェーン接続することができる。
上述したように、通信ケーブル3は、イーサネット(登録商標)通信用のケーブルであって、電源供給も可能なイーサネット(登録商標)PoE対応のケーブルであるので、監視カメラ2(1)をセンタ装置4に接続し、隣り合う監視カメラ2同士を、通信ケーブル3で接続するだけでよく、監視カメラ2の設置及び増設は容易である。
Moreover, the connector 13 for connecting the communication cable 3 is provided in the both end surfaces of the casing 11, and the some monitoring camera 2 can mutually be daisy chain-connected.
As described above, the communication cable 3 is an Ethernet (registered trademark) communication cable and is a cable compatible with Ethernet (registered trademark) PoE that can supply power, so that the monitoring camera 2 (1) is connected to the center device. It is only necessary to connect the adjacent monitoring cameras 2 to each other by the communication cable 3, and the installation and extension of the monitoring cameras 2 are easy.

監視カメラ2の1つの撮像部は、視野範囲PArを有し、他方の撮像部は、視野範囲PAlを有する。2つの視野範囲により、監視カメラ2の撮影範囲PAが決定される。   One imaging unit of the monitoring camera 2 has a visual field range PAr, and the other imaging unit has a visual field range PAl. The imaging range PA of the surveillance camera 2 is determined by the two visual field ranges.

センタ装置4は、コンピュータ装置であり、CPU(中央処理装置)、ROM、RAMなどを含み、各監視カメラ2からのデータを受信すると共に、各監視カメラ2へ各種コマンドを送信して、情報を取得することができると共に、各種データ処理を実行することができる。   The center device 4 is a computer device and includes a CPU (Central Processing Unit), ROM, RAM, etc., receives data from each monitoring camera 2 and sends various commands to each monitoring camera 2 to obtain information. While being able to acquire, various data processing can be performed.

(監視カメラの構成)
図4は、監視カメラ2の内部構成を示すブロック図である。
監視カメラ2は、2つの撮像部21、撮像部インターフェース部(以下、撮像部I/Fという)22、立体計測部23、基本監視部24、追加監視部25、判定部26、メモリ27、画像供給部28、通信制御部29、2つの通信インターフェース部(以下、通信I/Fという)30、及び2つのコネクタ13を含んで構成されている。
(Configuration of surveillance camera)
FIG. 4 is a block diagram showing an internal configuration of the monitoring camera 2.
The surveillance camera 2 includes two imaging units 21, an imaging unit interface unit (hereinafter referred to as an imaging unit I / F) 22, a three-dimensional measurement unit 23, a basic monitoring unit 24, an additional monitoring unit 25, a determination unit 26, a memory 27, and an image. A supply unit 28, a communication control unit 29, two communication interface units (hereinafter referred to as communication I / F) 30, and two connectors 13 are configured.

監視カメラ2の一部の機能は、監視カメラ2に搭載された中央処理装置(CPU)によって実行されるソフトウェアプログラムにより、実現される。例えば、立体計測部23、基本監視部24、追加監視部25及び判定部26は、ソフトウェアプログラムにより実現される。なお、監視カメラ2の一部の機能は、デジタル・シグナル・プロセッサ(DSP)により、実現してもよい。   Some functions of the monitoring camera 2 are realized by a software program executed by a central processing unit (CPU) mounted on the monitoring camera 2. For example, the three-dimensional measurement unit 23, the basic monitoring unit 24, the additional monitoring unit 25, and the determination unit 26 are realized by a software program. Note that some functions of the monitoring camera 2 may be realized by a digital signal processor (DSP).

各撮像部21は、対物レンズである対物光学系12と、対物光学系12の結像位置に配設されたCMOSイメージセンサ等の撮像素子31を有する。各撮像素子31により撮像して得られた画像データは、撮像部I/F22を介して、立体計測部23と画像供給部28に供給される。   Each imaging unit 21 includes an objective optical system 12 that is an objective lens, and an imaging element 31 such as a CMOS image sensor disposed at an imaging position of the objective optical system 12. Image data obtained by imaging with each imaging element 31 is supplied to the three-dimensional measurement unit 23 and the image supply unit 28 via the imaging unit I / F 22.

立体計測部23は、2つの画像データから距離画像のデータを生成する距離画像生成部である。距離画像のデータは、入力された2つの画像データから、各画素値が距離値である画像データである。立体計測部23は、距離画像データを生成する。なお、距離画像は、各画素値が3次元空間内の位置情報でもよい。立体計測部23は、生成した距離画像の情報を基本監視部24と追加監視部25に供給する。   The three-dimensional measurement unit 23 is a distance image generation unit that generates distance image data from two image data. The distance image data is image data in which each pixel value is a distance value from two input image data. The three-dimensional measurement unit 23 generates distance image data. In the distance image, each pixel value may be position information in a three-dimensional space. The three-dimensional measurement unit 23 supplies the generated distance image information to the basic monitoring unit 24 and the additional monitoring unit 25.

基本監視部24は、距離画像に基づく、停止物体の検出等の、所定の監視処理を実行する基本監視機能の処理を実行する第1の監視処理部である。
本実施の形態では、基本監視部24は、基本監視機能の監視処理部として、停止物体の検出処理部P1と物体の軌跡の検出処理部P2を含む。基本監視部24は、これらの監視処理部とは別に、計測及び記録処理部P3を含む。なお、本実施の形態では、これら3つの処理部P1,P2,P3を基本監視機能の処理部としているが、基本監視機能の処理は、これらに限定されず、他の処理を基本監視部24に含めてもよい。
The basic monitoring unit 24 is a first monitoring processing unit that executes processing of a basic monitoring function that executes predetermined monitoring processing such as detection of a stopped object based on a distance image.
In the present embodiment, the basic monitoring unit 24 includes a stopped object detection processing unit P1 and an object locus detection processing unit P2 as monitoring processing units for the basic monitoring function. The basic monitoring unit 24 includes a measurement and recording processing unit P3 separately from these monitoring processing units. In the present embodiment, these three processing units P1, P2, and P3 are used as basic monitoring function processing units. However, the basic monitoring function processing is not limited to these, and other processing may be performed by the basic monitoring unit 24. May be included.

停止物体の検出処理部P1は、ステレオ処理により得られた距離画像から、停止物体を認識して検出する処理を行う。例えば、停止物体の検出処理部P1は、距離画像から認識して得られた物体の位置が、所定の時間以上移動しない状態にあるか否かを判定し、その物体の位置が所定の時間以上移動しない場合に、停止物体ありの異常を、検出する。停止物体は、例えば、停止した車両、道路上の落下物などである。   The stop object detection processing unit P1 performs processing for recognizing and detecting a stop object from the distance image obtained by the stereo processing. For example, the stop object detection processing unit P1 determines whether or not the position of the object obtained by recognizing from the distance image is in a state of not moving for a predetermined time or more, and the position of the object is not less than a predetermined time or more When it does not move, an abnormality with a stopped object is detected. The stopped object is, for example, a stopped vehicle, a fallen object on the road, or the like.

物体の軌跡の検出処理部P2は、距離画像から物体を認識し、認識して得られた物体に関する、位置の変化(道路平面上の位置の変化)から得られた軌跡が所定の軌跡に合致するかしないか、言い換えれば得られた軌跡が所定の軌跡と不一致であるか否か、を検出する処理を行う。所定の軌跡とは、例えば移動物体の軌跡が略直線状である軌跡である。軌跡は、認識された物体の位置、例えば重心位置、の変化である。物体の進行方向に対する移動量が所定量以上であるような蛇行運転の軌跡は、この所定の軌跡に合致しないという異常として、検出される。   The object trajectory detection processing unit P2 recognizes the object from the distance image, and the trajectory obtained from the change in position (change in position on the road plane) of the object obtained by the recognition matches the predetermined trajectory. A process of detecting whether or not to perform, in other words, whether or not the obtained trajectory does not match the predetermined trajectory is performed. The predetermined trajectory is a trajectory in which the trajectory of the moving object is substantially linear, for example. The trajectory is a change in the position of the recognized object, for example, the position of the center of gravity. A locus of meandering operation in which the amount of movement of the object in the traveling direction is greater than or equal to a predetermined amount is detected as an abnormality that does not match the predetermined locus.

計測及び記録処理部P3は、距離画像から物体を認識し、認識して得られた各物体の位置の変化量から各物体の速度(例えば車速)、所定の時間内に撮像領域内を通過した車両の数(すなわちカウント値)、監視領域に入った時刻及び位置、監視領域から出た時刻及び位置、色などの属性データ、等の計測あるいは認識を行う計測処理を行う。   The measurement and recording processing unit P3 recognizes the object from the distance image, and passes through the imaging area within a predetermined time from the amount of change in the position of each object obtained by the recognition, the speed of each object (for example, the vehicle speed). A measurement process for measuring or recognizing the number of vehicles (that is, the count value), the time and position of entering the monitoring area, the time and position of leaving the monitoring area, attribute data such as color, etc. is performed.

さらに、計測及び記録処理部P3は、認識された通行車両の識別情報を生成して、上述した計測データと、その識別情報を関連付けて、ログデータとして、記憶部であるメモリ27に記録する記録処理を含む。すなわち、計測及び記録処理部P3は、距離画像に基づいて認識された通行車両の識別情報を生成して、その識別情報と、その認識された通行車両についての時刻情報等とをメモリ27に記録する記録処理部を構成する。ここでは、ログデータは、基本監視部24から判定部26を介してメモリ27に記憶される。なお、ログデータの記録は、基本監視部24がメモリ27に直接書き込むようにしてもよい。
追加監視部25は、基本監視部24の監視処理とは別の追加監視機能の処理を実行する第2の監視処理部である。具体的には、追加監視部25は、異常の内容に応じた異常処理、センタ装置4からのコマンドに応じたコマンド対応処理、等の処理を行うための、複数の追加処理部Q1,Q2,Q3,・・・Qmを含む(mは整数)。なお、図4において、追加処理部Q1,Q2が異常有りの判定時に実行すべき処理部であり、追加処理部Q3〜Qmがコマンド対応処理のための処理部である。
Further, the measurement and recording processing unit P3 generates identification information of the recognized passing vehicle, associates the above-described measurement data with the identification information, and records it in the memory 27 as a storage unit as log data. Includes processing. That is, the measurement and recording processing unit P3 generates identification information of the recognized passing vehicle based on the distance image, and records the identification information and time information about the recognized passing vehicle in the memory 27. The recording processing unit is configured. Here, the log data is stored in the memory 27 from the basic monitoring unit 24 via the determination unit 26. The log data may be recorded by the basic monitoring unit 24 directly in the memory 27.
The additional monitoring unit 25 is a second monitoring processing unit that executes processing of an additional monitoring function different from the monitoring processing of the basic monitoring unit 24. Specifically, the additional monitoring unit 25 includes a plurality of additional processing units Q1, Q2, and the like for performing processing such as abnormality processing according to the content of the abnormality and command response processing according to the command from the center device 4. Q3, ... includes Qm (m is an integer). In FIG. 4, the additional processing units Q1 and Q2 are processing units to be executed when it is determined that there is an abnormality, and the additional processing units Q3 to Qm are processing units for command response processing.

異常処理は、基本監視部24において検出された異常の内容に応じて、判定部26により選択されて実行される処理である。基本監視部24において異常が検出されたときに実行される追加処理部が、異常時の処理部として、追加監視部25に含まれる。   The abnormality process is a process selected and executed by the determination unit 26 in accordance with the content of the abnormality detected by the basic monitoring unit 24. An additional processing unit that is executed when an abnormality is detected in the basic monitoring unit 24 is included in the additional monitoring unit 25 as a processing unit at the time of abnormality.

例えば、停止物体の検出に対応する追加処理部Q1は、静止画データに基づいて、停止物体が車両であるのか、人であるのかを判定して、車両の場合は、破損状況、停止位置、向き(すなわち道路の走行方向に対して平行な方向を向いているのか、斜め方向を向いているのか)、大きさ、車両の台数、等々の検出をし、人の場合は、その位置、姿勢(横になっているのか(倒れているのか)、道路上に立っているのか、等)、人数、等々の検出をする処理部である。停止物体の大きさは、距離画像データから算出あるいは推定することができ、さらに、形状の情報から、停止物体が人であるか否かの判定をすることができる。   For example, the additional processing unit Q1 corresponding to the detection of the stopped object determines whether the stopped object is a vehicle or a person based on the still image data. It detects the direction (that is, whether it is facing parallel or oblique to the road direction), the size, the number of vehicles, and so on. It is a processing unit that detects the number of persons (whether they are lying (falling down), standing on the road, etc.), the number of people, and so on. The size of the stop object can be calculated or estimated from the distance image data, and further, it can be determined from the shape information whether the stop object is a person.

また、物体の軌跡が所定の軌跡に合致しない場合に対応する追加処理部Q2は、後述するRAM28aの動画データ(すなわち複数のフレームデータ)又はメモリ27に格納されたログデータに基づいて、車線変更であるのか、減速であるのか、物体の分離であるのか、を判定する。車線変更は、車両の避走、蛇行、回転(スピン)、接触(壁面への接触、車両同士の接触)、等を検出することによって、判定することができる。減速は、ログデータに基づいて判定することができる。   Further, the additional processing unit Q2 corresponding to the case where the locus of the object does not match the predetermined locus changes the lane based on moving image data (that is, a plurality of frame data) in the RAM 28a described later or log data stored in the memory 27. Whether the object is a deceleration or an object separation. Lane change can be determined by detecting vehicle escape, meandering, rotation (spinning), contact (contact with walls, contact between vehicles), and the like. Deceleration can be determined based on log data.

さらに、物体の軌跡から、車両から分離した物の有無を検出することができる。よって、分離の検出と、落下物の大きさ及び落下物が人であるか否かの判定とをすることができるので、車両から荷物が落下したのか、二輪車が転倒して人が投げ出されているのか、車両から降りた人の移動方向、等の検出をすることができる。
以上のように、追加監視部25は、基本監視部24の処理結果に基づいて、実行可能に構成されている。
Furthermore, the presence or absence of an object separated from the vehicle can be detected from the locus of the object. Therefore, it is possible to detect separation and determine the size of the fallen object and whether or not the fallen object is a person, so whether the load has fallen from the vehicle, the motorcycle has fallen and the person has been thrown out. It is possible to detect whether the person gets off the vehicle or the moving direction of the person getting off the vehicle.
As described above, the additional monitoring unit 25 is configured to be executable based on the processing result of the basic monitoring unit 24.

また、追加監視部25中のコマンド対応処理とは、ログデータ送信コマンド、人検出コマンド、画像送信コマンド、等のセンタ装置4からのコマンドに応じて、判定部26等により指定されて実行される処理である。コマンドに応じて実行される追加処理部が、追加監視部25に含まれる。センタ装置4からのコマンドは、通信制御部29を介して、判定部26および画像処理部28に供給される。追加監視部25は、コマンドに基づいて、距離画像に基づく監視処理を実行する。   The command response processing in the additional monitoring unit 25 is specified and executed by the determination unit 26 or the like according to commands from the center device 4 such as a log data transmission command, a person detection command, and an image transmission command. It is processing. An additional processing unit that is executed in response to the command is included in the additional monitoring unit 25. A command from the center device 4 is supplied to the determination unit 26 and the image processing unit 28 via the communication control unit 29. The additional monitoring unit 25 executes monitoring processing based on the distance image based on the command.

例えば、ログデータ送信コマンドに対応するログデータ送信処理Q3は、センタ装置4からのコマンドがログデータの送信を指示するコマンドである場合に、コマンドで指定された、メモリ27に格納されているログデータを読み出して送信する処理である。人検出コマンドに対応する人検出処理Q4は、センタ装置4からのコマンドが人の検出を指示するコマンドである場合に同様に実行され、撮像画像の中から人を検出して、検出結果をセンタ装置4へ送信する処理である。監視カメラ2の画像データは、距離データであるので、人を正確に検出することができる。   For example, in the log data transmission process Q3 corresponding to the log data transmission command, when the command from the center device 4 is a command for instructing transmission of log data, the log stored in the memory 27 designated by the command This is a process of reading and transmitting data. The human detection process Q4 corresponding to the human detection command is executed in the same manner when the command from the center device 4 is a command for instructing human detection, detects a human from the captured image, and detects the detection result as the center. This is a process of transmitting to the device 4. Since the image data of the monitoring camera 2 is distance data, a person can be accurately detected.

画像送信コマンドに対応する画像送信処理Q5は、センタ装置4からのコマンドが画像データの送信を指示するコマンドである場合に通信制御部29が画像供給部28から画像データを読み出して、監視カメラ2で撮像して得られた画像データを送信する処理である。センタ装置4からのコマンドには複数の種類があり、また一つのコマンドが複数の追加処理を実行させるようなコマンドも有るので、追加監視部25は、そのコマンドに対応する処理を実行するに必要な数の処理部を含む。
なお、センタ装置4からのコマンドには、全ての監視カメラ2に対するグローバルコマンドと、特定の監視カメラ2に対するコマンドの2種類がある。
以上のように、追加監視部25は、基本監視部24の処理結果に基づいて、実行可能であると共に、センタ装置4からのコマンドに応じて実行可能に構成されている。
In the image transmission process Q5 corresponding to the image transmission command, when the command from the center device 4 is a command for instructing transmission of image data, the communication control unit 29 reads the image data from the image supply unit 28, and the monitoring camera 2 This is a process for transmitting the image data obtained by imaging with. There are a plurality of types of commands from the center device 4, and there are also commands in which one command causes a plurality of additional processes to be executed. Therefore, the additional monitoring unit 25 is necessary to execute a process corresponding to the command. Including a large number of processing units.
There are two types of commands from the center device 4, that is, global commands for all monitoring cameras 2 and commands for specific monitoring cameras 2.
As described above, the additional monitoring unit 25 is configured to be executable based on the processing result of the basic monitoring unit 24 and to be executable according to the command from the center device 4.

判定部26は、基本監視部24及び追加監視部25からの検出結果あるいは判定結果に基づいて、ルールベースの判定処理を行うと共に、必要な追加監視部25に含まれる複数の処理部の中から実行すべき処理部を、そのルールに従って選択して実行させる処理を行う。さらに判定部26は、センタ装置4からのコマンドの内容に応じて、追加監視部25の中の複数の追加処理部の中から、実行すべき処理部を選択して実行させる処理を行う。   The determination unit 26 performs a rule-based determination process based on the detection results or determination results from the basic monitoring unit 24 and the additional monitoring unit 25, and from among a plurality of processing units included in the necessary additional monitoring unit 25. The processing unit to be executed is selected and executed according to the rule. Further, the determination unit 26 performs processing for selecting and executing a processing unit to be executed from among a plurality of additional processing units in the additional monitoring unit 25 according to the content of the command from the center device 4.

具体的には、基本監視部24により異常が検出された場合、判定部26は、後述するような、追加解析処理、異常対応処理の実施指示処理、通報処理、及び画像送信処理を実行する。さらに、判定部26は、センタ装置4からコマンドを受信すると、コマンドの内容を解析し、そのコマンドに対応する処理を、追加監視部25内の対応する追加処理部を実行する。   Specifically, when an abnormality is detected by the basic monitoring unit 24, the determination unit 26 executes an additional analysis process, an execution instruction process for an abnormality handling process, a notification process, and an image transmission process as described later. Further, when receiving a command from the center device 4, the determination unit 26 analyzes the content of the command, and executes a process corresponding to the command by a corresponding additional processing unit in the additional monitoring unit 25.

また、判定部26の処理内容は、ルールベースで定められるので、判定部26は、ルールによる判定のための基準データ及び判断ルールを含む。その基準データと判断ルールは、判定部26のプログラム中に記述されてもよいし、メモリ27内に記憶されていてもよい。基準データ及び判断ルールを変更することによって、判定部26が実行を指示する、基本監視部24及び追加監視部25内の処理内容を変更することができる。さらに、判定部26は、メモリ27に格納されたログデータを用いて、判定を行うことも可能である。判定部26の異常処理とコマンド処理の詳細については、後述する。   In addition, since the processing content of the determination unit 26 is determined on a rule basis, the determination unit 26 includes reference data and determination rules for determination by rules. The reference data and the determination rule may be described in the program of the determination unit 26 or may be stored in the memory 27. By changing the reference data and the determination rule, the processing contents in the basic monitoring unit 24 and the additional monitoring unit 25 that the determination unit 26 instructs to execute can be changed. Furthermore, the determination unit 26 can also perform determination using log data stored in the memory 27. Details of the abnormality processing and command processing of the determination unit 26 will be described later.

メモリ27は、上述したログデータを記憶する記憶部である。メモリ27に格納されるログデータの構造については後述する。   The memory 27 is a storage unit that stores the log data described above. The structure of log data stored in the memory 27 will be described later.

画像供給部28は、2つの撮像部21により撮像して得られた画像データの少なくとも一方の撮像部からの、最新の複数フレームの画像データを格納可能なRAM28aを有している。画像供給部28のRAM28aに格納された1以上の画像データは、判定部26により読み出し可能である。後述するように、RAM28aに格納された1以上の画像データは、センタ装置4からのコマンドに応じて、あるいは判定部26からの指示に応じて、センタ装置4へ送信される
通信制御部29は、デイジーチェーン接続された通信ケーブル3を介して、センタ装置4及び他の監視カメラ2との通信を行うための制御部である。特に、通信制御部29は、センタ装置4からのコマンドを受信するコマンド受信部を構成する。なお、本実施の形態では、センタ装置4からの画像データの送信コマンドを受信すると、通信制御部29が画像供給部28から画像データを読み出して、センタ装置4へ送信しているが、判定部26がコマンドを解釈して、RAM28aから画像データを読み出して、センタ装置4へ送信するようにしてもよい。
2つの通信I/F30は、通信制御部29とコネクタ13との間のインターフェースである。
The image supply unit 28 includes a RAM 28 a that can store the latest plural frames of image data from at least one of the image data obtained by imaging by the two imaging units 21. One or more pieces of image data stored in the RAM 28 a of the image supply unit 28 can be read out by the determination unit 26. As will be described later, one or more pieces of image data stored in the RAM 28a are transmitted to the center device 4 according to a command from the center device 4 or according to an instruction from the determination unit 26. A control unit for communicating with the center device 4 and the other monitoring cameras 2 via the communication cable 3 connected in a daisy chain. In particular, the communication control unit 29 constitutes a command receiving unit that receives commands from the center device 4. In this embodiment, when the image data transmission command is received from the center device 4, the communication control unit 29 reads the image data from the image supply unit 28 and transmits it to the center device 4. 26 may interpret the command, read the image data from the RAM 28a, and transmit the image data to the center device 4.
The two communication I / Fs 30 are interfaces between the communication control unit 29 and the connector 13.

(監視カメラにおける基本監視処理)
次に、基本監視処理について説明する。
図5は、基本監視処理の流れの例を示すフローチャートである。本実施の形態では、上述したように、基本監視部24の処理は、CPUによって実行されるプログラムの一部の機能として実行される。
(Basic monitoring processing for surveillance cameras)
Next, the basic monitoring process will be described.
FIG. 5 is a flowchart illustrating an example of the flow of basic monitoring processing. In the present embodiment, as described above, the processing of the basic monitoring unit 24 is executed as a partial function of a program executed by the CPU.

立体計測部23から距離画像データが取得される(S1)。距離画像データに基づいて、基本監視部24における、停止物体の検出処理部P1と、物体の軌跡の検出処理部P2とが、基本監視処理として実行される(S2)。   Distance image data is acquired from the three-dimensional measurement unit 23 (S1). Based on the distance image data, the stop object detection processing unit P1 and the object trajectory detection processing unit P2 in the basic monitoring unit 24 are executed as basic monitoring processing (S2).

停止物体の検出処理部P1は、背景以外の物体の認識を行い、フレーム間での物体の位置に変化があるか否かに基づいて、停止物体の検出を行う。立体形状の大きさが所定の大きさ以上の物体が、停止物体の検出対象として選択される。距離画像データに基づいて停止物体の検出を行っているので、物体の体積が検出でき、検出すべき停止物体を精度良く認識し、検出することができる。   The stop object detection processing unit P1 recognizes an object other than the background, and detects a stop object based on whether there is a change in the position of the object between frames. An object having a three-dimensional shape greater than or equal to a predetermined size is selected as a stop object detection target. Since the stop object is detected based on the distance image data, the volume of the object can be detected, and the stop object to be detected can be accurately recognized and detected.

物体の軌跡の検出処理部P2は、認識された物体の軌跡を、フレーム間の物体の位置情報から検出し、その軌跡が所定の軌跡に合致するかしないかを検出あるいは判定する。   The object locus detection processing unit P2 detects the recognized object locus from the position information of the object between frames, and detects or determines whether the locus matches a predetermined locus.

この軌跡の検出も、距離画像データに基づいて行っているので、物体の軌跡を精度良く検出して判定することができる。
次に、ログデータ記録処理が実行される(S3)。この処理は、上述した計測及び記録処理部P3により実行される。
Since the locus is also detected based on the distance image data, the locus of the object can be accurately detected and determined.
Next, a log data recording process is executed (S3). This process is executed by the above-described measurement and recording processing unit P3.

そして、判定部26は、上記の停止物体の検出処理部P1と物体の軌跡の検出処理部P2のいずれかで、異常が検出されたか否かを判定し(S4)、異常が無ければ(S4:NO)、処理は終了し、異常が有れば(S4:YES)、異常処理を実行する(S5)。
なお、図5の処理は、監視カメラ2が動作中は、常に繰り返し実行されている。
Then, the determination unit 26 determines whether an abnormality is detected in any of the stop object detection processing unit P1 and the object locus detection processing unit P2 (S4), and if there is no abnormality (S4). : NO), the process ends, and if there is an abnormality (S4: YES), the abnormality process is executed (S5).
Note that the processing in FIG. 5 is always repeated while the surveillance camera 2 is operating.

(監視カメラにおけるコマンド処理)
次に、コマンド処理について説明する。図6は、コマンド処理の流れの例を示すフローチャートである。
監視カメラ2は、センタ装置4からのコマンドを受信したか否かを判定する(S11)。コマンドは、通信制御部29を介して、判定部26により受信される。コマンドを受信しないときは(S11:NO)、処理は、終了し、コマンドを受信したときは(S11:YES)、受信したコマンドを解析する、すなわちコマンドの内容を判定する(S12)。
(Command processing in surveillance camera)
Next, command processing will be described. FIG. 6 is a flowchart illustrating an example of the flow of command processing.
The monitoring camera 2 determines whether a command from the center device 4 has been received (S11). The command is received by the determination unit 26 via the communication control unit 29. When no command is received (S11: NO), the process ends. When a command is received (S11: YES), the received command is analyzed, that is, the content of the command is determined (S12).

判定部26は、コマンドに対応する処理部を、追加監視部25の中から選択して、その処理を実行する(S13)。例えば、コマンドがログデータの送信要求コマンドであれば、判定部26は、追加監視部25の中からそのコマンドに対応する処理部Q3を選択して、メモリ27から指定されたログデータを読み出して、センタ装置4へ送信する。コマンドが、人の検出処理を行う人検出コマンドであれば、追加監視部25の中からそのコマンドに対応する処理部Q4を選択して、画像データから人を検出する処理が実行される。   The determination unit 26 selects a processing unit corresponding to the command from the additional monitoring unit 25 and executes the processing (S13). For example, if the command is a log data transmission request command, the determination unit 26 selects the processing unit Q3 corresponding to the command from the additional monitoring unit 25 and reads the specified log data from the memory 27. To the center device 4. If the command is a human detection command for performing human detection processing, the processing unit Q4 corresponding to the command is selected from the additional monitoring unit 25, and processing for detecting a person from the image data is executed.

コマンドに対応する処理の結果、何らかの異常が検出されたか否かが判定され(S14)、人が検出された等の異常が無ければ(S14:NO)、異常が無かった旨の情報を送信したり、要求された情報を送信する、等の、センタ装置4への回答処理を実行して(S16)、処理は終了し、異常が有れば(S14:YES)、異常処理を実行する(S16)。   As a result of processing corresponding to the command, it is determined whether or not any abnormality is detected (S14). If there is no abnormality such as a person detected (S14: NO), information indicating that there was no abnormality is transmitted. Response processing to the center apparatus 4 is executed (S16), and the processing is terminated. If there is an abnormality (S14: YES), the abnormality processing is executed (S14: YES). S16).

(監視カメラにおける異常処理)
次に、異常処理について説明する。図7は、図5及び図6における異常処理の流れの例を示すフローチャートである。
基本監視処理あるいは追加監視処理において検出された異常の内容に応じて実行すべき処理の内容が、ルールベースで予め設定されている。判定部26は、その予め決められたルールベースの内容に従って、図7に示す処理を実行する。
判定部26は、異常が検出されると、ルールベースを参照して、処理内容を決定する(S21)。
(Abnormal processing in surveillance cameras)
Next, the abnormality process will be described. FIG. 7 is a flowchart showing an example of the flow of abnormality processing in FIGS. 5 and 6.
The content of the processing to be executed according to the content of the abnormality detected in the basic monitoring processing or the additional monitoring processing is set in advance on a rule basis. The determination unit 26 executes the process shown in FIG. 7 according to the contents of the predetermined rule base.
When an abnormality is detected, the determination unit 26 refers to the rule base and determines the processing content (S21).

そして、判定部26は、その決定された処理内容に従って、異常対応処理の実施指示処理(S22)、追加解析処理(S23)、通報処理(S24)及び画像送信処理(S25)を実行する。これらの4つの処理は、互いに並列に実行され、それぞれ処理内容決定処理(S21)で決定された内容を実行する。処理の内容がルールベースで予め設定されているので、異常の内容によっては、処理内容決定処理(S21)において、4つの処理全てを実行しないように、決定される場合もある。   Then, the determination unit 26 executes an execution instruction process (S22) of an abnormality handling process, an additional analysis process (S23), a notification process (S24), and an image transmission process (S25) according to the determined processing content. These four processes are executed in parallel with each other, and the contents determined in the process content determination process (S21) are executed. Since the content of the process is set in advance on a rule basis, depending on the content of the abnormality, it may be determined not to execute all four processes in the process content determination process (S21).

異常対応処理の実施指示処理(S22)は、センタ装置4を介さずに、監視カメラ2から他の設備、例えばトンネル内に設置された放送設備、トンネルの出入り口に設置された情報表示パネル、に直接、動作する指示を与える処理である。他の設備が、通信ケーブル3で形成されるイーサネット(登録商標)の通信上に接続されている場合に、監視カメラ2は、他の設備と通信をすることができる。   The execution instruction process (S22) of the abnormality handling process is performed from the monitoring camera 2 to other equipment such as broadcasting equipment installed in the tunnel, information display panel installed at the entrance of the tunnel, without going through the center device 4. This process directly gives an instruction to operate. When other equipment is connected on the Ethernet (registered trademark) communication formed by the communication cable 3, the monitoring camera 2 can communicate with the other equipment.

例えば、通信ケーブル3と同じイーサネット(登録商標)に接続されている通信可能な設備として、放送設備と情報表示パネルがあれば、異常対応処理の実施指示処理(S22)は、その放送設備等の制御装置に対する所定の音声出力の指示コマンドの送信、等の処理である。   For example, if there is a broadcast facility and an information display panel as communicable facilities connected to the same Ethernet (registered trademark) as the communication cable 3, the execution instruction process (S22) of the abnormality handling process is performed for the broadcast facility or the like. Processing such as transmission of a predetermined voice output instruction command to the control device.

図1において、設備の制御装置41が、イーサネット(登録商標)に接続されていて、監視カメラ2からのコマンドを受信可能となっている。この場合、ある監視カメラ2(k)が、異常対応処理の実施指示処理(S22)に従って、その制御装置41へ所定のコマンドを送信すると、その設備は、そのコマンドに指定された動作を実行する。よって、監視カメラ2から直接設備に対して、所望の動作指示をすることができるので、異常時の対応を迅速に行うことができる。   In FIG. 1, a facility control device 41 is connected to Ethernet (registered trademark) and can receive commands from the monitoring camera 2. In this case, when a certain monitoring camera 2 (k) transmits a predetermined command to the control device 41 according to the execution instruction process (S22) of the abnormality handling process, the equipment executes the operation specified in the command. . Therefore, since a desired operation instruction can be issued directly from the monitoring camera 2 to the equipment, it is possible to quickly cope with an abnormality.

また、異常対応処理の実施指示処理(S22)は、他の監視カメラ2へのコマンド送信も含まれる。例えば、避走車両の検出がされた場合に、その車両の進行方向にある他の監視カメラ2(隣の監視カメラあるいは、数台先の監視カメラ)へ、避走車両の速度と軌跡データをセンタ装置4へ送信させるような処理を実行させるコマンドを、送信する。これにより、センタ装置4は、検出された避走車両の走行状態を、迅速に監視することができる。   Further, the execution instruction process (S22) of the abnormality handling process includes command transmission to another monitoring camera 2. For example, when a avoiding vehicle is detected, the speed and trajectory data of the avoiding vehicle are sent to another monitoring camera 2 (adjacent monitoring camera or several monitoring cameras ahead) in the traveling direction of the vehicle. A command for executing processing to be transmitted to the center device 4 is transmitted. Thereby, the center apparatus 4 can monitor rapidly the driving state of the detected avoidance vehicle.

以上のように、異常対応処理の実施指示処理(S22)は、基本監視部の処理結果が所定の異常が有りの判定である場合、発生した所定の異常の種類に応じて、所定の設備の所定の動作の指示あるいは他の監視カメラ2に所定の処理の実行を指示するコマンドを、所定の設備あるいは他の監視カメラ2に送信する実行コマンド送信処理部を構成する。   As described above, the execution instruction process (S22) of the abnormality handling process is performed according to the type of the predetermined abnormality that has occurred, when the processing result of the basic monitoring unit is a determination that there is a predetermined abnormality. An execution command transmission processing unit is configured to transmit a command for a predetermined operation or a command for instructing another monitoring camera 2 to execute a predetermined process to a predetermined facility or another monitoring camera 2.

追加解析処理(S23)は、上述した追加監視部25内の追加処理部の処理である。よって、異常の内容に応じた追加解析を行うことができる。
また、通報処理(S24)は、検出された異常の内容に応じた所定のデータ、メッセージ等の所定の情報を、センタ装置4へ送信する処理である。例えば、判定部26が、異常の内容から危険度レベルを判定する処理を実行した場合は、その危険度レベルの情報も、センタ装置4へ送信される。
The additional analysis process (S23) is a process of the additional processing unit in the additional monitoring unit 25 described above. Therefore, additional analysis according to the content of the abnormality can be performed.
The notification process (S24) is a process of transmitting predetermined information such as predetermined data and a message corresponding to the detected abnormality to the center device 4. For example, when the determination unit 26 executes a process of determining the risk level from the content of the abnormality, information on the risk level is also transmitted to the center device 4.

画像送信処理(S25)は、異常を検出した監視カメラ2が、所定の画像データを、画像供給部28から読み出して、センタ装置4へ送信する処理である。
追加解析処理(S23)の実行後、所定の判定処理が実行される(S26)。
The image transmission process (S25) is a process in which the monitoring camera 2 that has detected an abnormality reads predetermined image data from the image supply unit 28 and transmits it to the center device 4.
After the additional analysis process (S23) is executed, a predetermined determination process is executed (S26).

上述したように、S22からS26の処理の内容は、ルールベースで定められたものであり、異常の内容に応じて異なっている。これらの処理が実行されると、検出された異常が終結したか否かが判定される(S27)。   As described above, the contents of the processing from S22 to S26 are determined on a rule basis and differ depending on the contents of the abnormality. When these processes are executed, it is determined whether or not the detected abnormality is terminated (S27).

異常が終結していない場合は(S27:NO)、処理は、S21に戻り、異常が終結した場合は(S27:YES)、終結処理が実行されて(S28)、処理は、終了する。   If the abnormality is not terminated (S27: NO), the process returns to S21. If the abnormality is terminated (S27: YES), the termination process is executed (S28), and the process ends.

例えば、基本監視部24の停止物体の検出処理部P1により停止物体の有りの異常が検出された場合、判定部26は、その停止物体の検出に対応する予め決められた追加処理部Q1を、追加解析処理(S23)として実行する。同時に、判定部26は、異常対応処理の実行指示処理(S22)において、情報表示パネルの制御装置に対して、「トンネル中、停止車両有り」等のメッセージを表示するように、コマンドを送信する。さらに、判定部26は、通報処理(S24)において、センタ装置4へ停止車両の検出がされたことのメッセージを送信する。さらに、判定部26は、画像送信処理(S25)において、その停止物体の画像データをセンタ装置4へ送信する。   For example, when the stop object detection processing unit P1 of the basic monitoring unit 24 detects an abnormality with the presence of a stopped object, the determination unit 26 uses a predetermined additional processing unit Q1 corresponding to the detection of the stopped object. This is executed as additional analysis processing (S23). At the same time, the determination unit 26 transmits a command so as to display a message such as “There is a stopped vehicle in tunnel” to the control device of the information display panel in the execution instruction process (S22) of the abnormality handling process. . Furthermore, the determination unit 26 transmits a message indicating that a stopped vehicle has been detected to the center device 4 in the notification process (S24). Further, the determination unit 26 transmits the image data of the stopped object to the center device 4 in the image transmission process (S25).

判定処理(S26)は、追加解析処理(S23)の処理結果に基づく処理であり、追加処理部Q1の処理結果に応じた処理を実行する。よって、例えば、追加処理部Q1により、人が検出された場合には、判定部26は、人が検出されたことの異常を検出する。   The determination process (S26) is a process based on the process result of the additional analysis process (S23), and executes a process according to the process result of the additional processing unit Q1. Therefore, for example, when a person is detected by the additional processing unit Q1, the determination unit 26 detects an abnormality that a person has been detected.

異常が終結していない場合には、処理は、処理内容決定処理(S21)に戻る。そして、判定部26は、再度、追加解析処理により検出された異常も加えて、処理内容を決定し、S22からS25の処理を実行する。   If the abnormality has not ended, the process returns to the process content determination process (S21). Then, the determination unit 26 again adds the abnormality detected by the additional analysis processing, determines the processing content, and executes the processing from S22 to S25.

例えば、追加処理部Q1において、人が検出されたときには、異常対応処理の実行指示処理(S22)において、放送設備の制御装置に対して、「他の車両に注意して下さい。」等の音声メッセージをトンネル内に放送するように、コマンドを送信する。   For example, when a person is detected in the additional processing unit Q1, in the execution instruction process (S22) of the abnormality handling process, a voice message such as “Please pay attention to other vehicles” is sent to the control device of the broadcast facility. Send a command to broadcast the message in the tunnel.

別の例として、基本監視部24の物体の軌跡の検出処理部P2により物体の軌跡が所定の軌跡ではないと判定された場合、判定部26は、物体の軌跡が所定の軌跡に合致しない場合に対応する追加処理部Q2を、追加解析処理として実行し、その追加処理部Q2の結果に基づく判定処理(S26)を実行する。   As another example, when the object trajectory detection processing unit P2 of the basic monitoring unit 24 determines that the object trajectory is not the predetermined trajectory, the determination unit 26 determines that the object trajectory does not match the predetermined trajectory. The additional processing unit Q2 corresponding to is executed as additional analysis processing, and determination processing (S26) based on the result of the additional processing unit Q2 is executed.

終結処理(S28)は、異常状態が検出されなくなったので、センタ装置4への異常状態の終了したことのメッセージ等の送信処理、他の設備へ送信したコマンドに基づく動作の終了指示のコマンドの送信処理、等が実行される。   In the termination process (S28), since the abnormal state is no longer detected, a transmission process of a message indicating that the abnormal state has ended to the center device 4 and a command to terminate the operation based on the command transmitted to other equipment Transmission processing, etc. are executed.

以上のように、監視カメラ2は、基本監視部24と追加監視部25を有して、通常は、基本監視部24の処理を実行し、基本監視部24において異常が検出された場合、あるいはセンタ装置4からコマンドを受信した場合は、予めルールベースで設定された処理部を実行する。   As described above, the monitoring camera 2 includes the basic monitoring unit 24 and the additional monitoring unit 25, and normally executes the processing of the basic monitoring unit 24, and when an abnormality is detected in the basic monitoring unit 24, or When a command is received from the center apparatus 4, a processing unit set in advance on a rule basis is executed.

(センタ装置における異常処理)
監視室の監視員は、モニタ6に表示される情報、画像などを見ながら、トンネル内の交通状況を監視する。監視員は、上述したように特定の監視カメラ2を指定して所望の処理を実行させて、その監視カメラ2を制御することができる。そして、センタ装置4は、複数の監視カメラ2からの各種情報を受信して、異常が検出された場合には、所定の処理を実行する。
(Abnormal processing in center equipment)
A monitor in the monitoring room monitors traffic conditions in the tunnel while viewing information, images, and the like displayed on the monitor 6. As described above, the monitor can specify a specific monitoring camera 2 and execute a desired process to control the monitoring camera 2. And the center apparatus 4 receives the various information from the some monitoring camera 2, and when abnormality is detected, performs a predetermined | prescribed process.

図8は、センタ装置4における異常処理の流れの例を示すフローチャートである。図8の処理は、センタ装置4のCPUによって実行される。
センタ装置4は、個別カメラからの情報を入手し(S31)、所定の基準に基づいて、状況を判定し、その判定結果に応じた処理内容を決定する(S32)。
FIG. 8 is a flowchart showing an example of the flow of abnormality processing in the center device 4. The processing in FIG. 8 is executed by the CPU of the center device 4.
The center device 4 obtains information from the individual cameras (S31), determines the situation based on a predetermined standard, and determines the processing content according to the determination result (S32).

その状況を判定するために所定の基準データは、記憶装置5の基準データ記憶部5aに記憶されている。また、判定された状況に応じて実行すべき処理内容のデータも、記憶装置5内の処理内容データ記憶部5bに記憶されている。   Predetermined reference data for determining the situation is stored in the reference data storage unit 5 a of the storage device 5. In addition, processing content data to be executed according to the determined situation is also stored in the processing content data storage unit 5 b in the storage device 5.

センタ装置5のCPUは、S32における状況判定の結果、異常ありと判定されたか否かを判定し(S33)、異常がなければ(S33:NO)、処理は、S31に戻る。異常があれば(S33:YES)、センタ装置4は、異常対応処理の実行指示処理(S34)、警告画面表示処理(S35)及び操作入力確認処理(S36)を実行する。これらの3つの処理は、互いに並列に実行され、それぞれS32において決定された内容を実行する。S31の処理が、監視カメラ2からの距離画像のデータと、距離画像のデータに基づいて認識された車両の識別情報とを受信するカメラ情報受信部を構成する。   The CPU of the center apparatus 5 determines whether or not there is an abnormality as a result of the situation determination in S32 (S33). If there is no abnormality (S33: NO), the process returns to S31. If there is an abnormality (S33: YES), the center device 4 executes an abnormality handling process execution instruction process (S34), a warning screen display process (S35), and an operation input confirmation process (S36). These three processes are executed in parallel with each other and execute the contents determined in S32. The process of S31 constitutes a camera information receiving unit that receives the distance image data from the monitoring camera 2 and the vehicle identification information recognized based on the distance image data.

異常対応処理の実行指示処理(S34)は、例えば、センタ装置4に接続された設備、例えばトンネルの出入り口に設置された情報表示パネル、に対する指示を与える処理、特定の監視カメラ2へのコマンド指示送信処理、等である。   The abnormality response process execution instruction process (S34) includes, for example, a process for giving an instruction to equipment connected to the center apparatus 4, for example, an information display panel installed at the entrance of a tunnel, and a command instruction to a specific monitoring camera 2. Transmission processing, etc.

例えば、基本監視部24の物体の軌跡の検出処理部P2により物体の軌跡が所定の軌跡ではないと判定された場合にその情報を入手すると、情報表示パネルに「走行注意」等の所定のメッセージを表示させるためのコマンドが、情報表示パネルに送信される。その結果、他の車両のドライバは、より注意した運転を心掛けることができる。そのようなコマンドの送信は、予め自動的に行われる設定になっている場合には、監視員は、特に、情報表示パネルへの指示操作をしなくてよい。その設定は、処理内容データ記憶部5bに記憶される。   For example, when the object trajectory detection processing unit P2 of the basic monitoring unit 24 determines that the object trajectory is not a predetermined trajectory, when the information is obtained, a predetermined message such as “attention to travel” is displayed on the information display panel. Is sent to the information display panel. As a result, the driver of another vehicle can keep driving more carefully. When the transmission of such a command is set to be automatically performed in advance, the monitoring staff does not particularly need to perform an instruction operation to the information display panel. The setting is stored in the processing content data storage unit 5b.

異常対応処理の実行指示処理(S34)により、センタ装置4は、例えば、他の特定の監視カメラ2に対して、画像データを送信させるためのコマンドを送信するようにすることもできる。その結果、所定の軌跡に合致しない走行をしている車両がその後通過すると想定される場所の画像がモニタ6に表示されるので、監視員は、その車両がその監視カメラ2の前を通過するのを待ち伏せして、通過したときの走行状況を見て確認することができる。
以上のようにして、異常対応処理の実行指示処理(S34)の処理によって、異常時における所定の処理の自動化を実現することができる。
Through the execution instruction process (S34) of the abnormality handling process, the center device 4 can transmit a command for transmitting image data to, for example, another specific monitoring camera 2. As a result, an image of a place where a vehicle that does not conform to the predetermined trajectory is assumed to pass thereafter is displayed on the monitor 6, so that the monitor passes the front of the monitoring camera 2. Can be confirmed by looking at the driving situation when passing.
As described above, it is possible to realize automation of a predetermined process at the time of abnormality by the process of the abnormality handling process execution instruction process (S34).

警告画面表示処理(S35)は、図9に示すようなモニタ6の画面上に、所定のメッセージを表示する処理である。この警告画面表示処理(S35)によって、例えば、ある異常が発生したときは、「・・を操作して下さい。」等の対応操作方法を示すすなわちアドバイスするメッセージが表示される。そのメッセージ表示を見て、監視員に所定の操作をさせることができる。発生した異常に応じて、どのようなメッセージを、どのような順番で表示するかは、処理内容データ記憶部5bに予め記憶されている。   The warning screen display process (S35) is a process for displaying a predetermined message on the screen of the monitor 6 as shown in FIG. By this warning screen display process (S35), for example, when a certain abnormality occurs, a message indicating a corresponding operation method such as “Please operate” is displayed, that is, an advice message is displayed. The monitor can be made to perform a predetermined operation by seeing the message display. Which message is displayed in what order according to the abnormality that has occurred is stored in advance in the processing content data storage unit 5b.

また、操作入力確認処理(S36)は、警告画面表示処理(S35)によって指示された操作が、適切に行われたか否かを確認する処理である。例えば、所定の順番で操作させるべき操作が、所定の順番で正しく行われているか否かが判定され、操作内容及び順番が適切でないときには、操作入力確認処理(S36)は、操作すべき内容をモニタ6上に表示する。   The operation input confirmation process (S36) is a process for confirming whether or not the operation instructed by the warning screen display process (S35) has been appropriately performed. For example, it is determined whether or not the operations to be operated in a predetermined order are correctly performed in the predetermined order. When the operation contents and the order are not appropriate, the operation input confirmation process (S36) Display on the monitor 6.

すなわち、センタ装置4は、いずれかの監視カメラ2の判定部26から所定の異常の通知を受けると、所定の操作内容を示すメッセージを表示装置に表示する表示処理と、所定の操作内容の操作入力を監視して所定の操作内容が入力されているかを確認する操作入力確認処理を実行する。   That is, when the center device 4 receives a notification of a predetermined abnormality from the determination unit 26 of any of the monitoring cameras 2, the center device 4 displays a message indicating a predetermined operation content on the display device, and operates the predetermined operation content. An operation input confirmation process is executed for monitoring the input and confirming whether a predetermined operation content has been input.

S34〜S36の処理の結果、総合判定が行われる(S37)。異常発生後のデータすなわち経緯データは、記憶装置5に記録される。総合判定の基準も、記憶装置5の基準データ記憶部5aに記憶されている。総合判定処理(S37)は、異常が発生してからの経緯に基づいて、所定の処理が実行されて、異常の発生もなくなり、異常が終結したか否かが判定される。   As a result of the processing of S34 to S36, comprehensive determination is performed (S37). Data after the occurrence of an abnormality, that is, history data is recorded in the storage device 5. The reference for comprehensive determination is also stored in the reference data storage unit 5 a of the storage device 5. In the comprehensive determination process (S37), based on the circumstances after the occurrence of the abnormality, a predetermined process is executed, and the occurrence of the abnormality is eliminated, and it is determined whether or not the abnormality has ended.

総合判定処理(S37)の後、異常が終結したか否かが判定され、異常が終結していなければ(S38:NO)、処理は、S31に戻り、異常が終結していれば(S38:YES)、終結処理を実行して(S39)、処理は終了する。   After the comprehensive determination process (S37), it is determined whether or not the abnormality has ended. If the abnormality has not ended (S38: NO), the process returns to S31, and if the abnormality has ended (S38: YES), a termination process is executed (S39), and the process ends.

よって、センタ装置4は、各監視カメラ2からの情報に基づいて、異常の判定を行い、その異常に応じた処理を実行すると共に、所定のメッセージ等をモニタ6の画面上に表示し、かつ異常に対応する所定の操作が正しく行われたか否かの確認を行う。よって、異常発生時に、監視員がその異常の内容を確認して、必要な設備に対する処理の全てを行う必要もなく、かつ操作内容がガイダンスとして表示されるので、迅速な対応も可能となり、さらに操作ミスも防止することができる。   Therefore, the center device 4 determines an abnormality based on information from each monitoring camera 2, executes a process corresponding to the abnormality, displays a predetermined message on the screen of the monitor 6, and It is confirmed whether or not a predetermined operation corresponding to the abnormality has been correctly performed. Therefore, when an abnormality occurs, it is not necessary for the monitoring staff to check the details of the abnormality and perform all the processing for the necessary equipment, and since the operation contents are displayed as guidance, it is possible to respond quickly. Operation mistakes can also be prevented.

(監視画面)
図9は、モニタ6上に表示される監視画面の例を示す図である。モニタ6の画面51内には、監視対象トンネルの模式図を表示する表示部52と、トンネルの各出入り口の入車台数と出車台数の表示部53と、監視画像の表示部54と、トンネル内に存在する車両の台数を表示する表示部55とを含む。
(Monitoring screen)
FIG. 9 is a diagram illustrating an example of a monitoring screen displayed on the monitor 6. In the screen 51 of the monitor 6, a display unit 52 for displaying a schematic diagram of the tunnel to be monitored, a display unit 53 for the number of vehicles entering and exiting each entrance and exit, a display unit 54 for monitoring images, a tunnel And a display unit 55 for displaying the number of vehicles existing in the vehicle.

表示部52は、トンネルの模式図の各出入り口の近傍には、行き先を示す、「・・方面」という文字が併せて表示されている。
表示部53は、トンネルの模式図の各出入り口の近傍に配置され、入車台数と出車台数をリアルタイムで表示する。台数は、例えば、日付の始まる午前零時からの累積台数などである。
In the display section 52, characters “.. direction” indicating the destination are also displayed in the vicinity of each doorway in the schematic diagram of the tunnel.
The display unit 53 is arranged in the vicinity of each doorway in the schematic diagram of the tunnel, and displays the number of vehicles entering and exiting in real time. The number is, for example, the cumulative number from midnight when the date starts.

表示部54は、複数の監視カメラ2の中から選択された特定の監視カメラ2から撮影画像を取得して、表示している。上述したように、監視員がセンタ装置4を操作して、監視したい場所の監視カメラ2を選択して、その監視カメラ2に画像送信コマンドを送信することによって、表示部54にその監視カメラ2の画像を表示させることもできる。   The display unit 54 acquires a captured image from a specific monitoring camera 2 selected from the plurality of monitoring cameras 2 and displays the acquired image. As described above, the monitoring staff operates the center device 4 to select the monitoring camera 2 at the location to be monitored, and transmits the image transmission command to the monitoring camera 2, whereby the monitoring camera 2 is displayed on the display unit 54. It is also possible to display the image.

表示部55は、そのときにトンネル内に存在する車両の数を、リアルタイムで表示する。例えば、監視カメラ2(1)と2(n)から、上りと下りの各車線のそれぞれについて、認識した車両であってトンネルに入った車両と出た車両の数の情報を常に送信させ、上りと下りのそれぞれについて入った車両から出た車両の差分を計算することによって、センタ装置4は、トンネル内に存在する車両の数を、表示することができる。   The display unit 55 displays the number of vehicles existing in the tunnel at that time in real time. For example, the monitoring cameras 2 (1) and 2 (n) always transmit information on the number of recognized vehicles that have entered the tunnel and the number of vehicles that have exited for each of the up and down lanes. The center device 4 can display the number of vehicles present in the tunnel by calculating the difference between the vehicles exiting from the vehicles entering for each of the descending and the descending vehicles.

図9の画面は、常にモニタ6に表示され、上述したアドバイスメッセージ等の表示は、図9の画面上に例えば、ポップアップウインドウにより行われる。   The screen of FIG. 9 is always displayed on the monitor 6, and the above-mentioned advice message and the like are displayed on the screen of FIG.

図10は、図9の画面の表示処理の流れの例を示すフローチャートである。センタ装置4は、特定の監視カメラ2、例えば監視カメラ2(1)と2(n)、から、入った車両と出た車両の数の情報を取得し、所定演算を実行する(S41)。所定演算とは、上述した表示部53と55の台数を表示するための演算である。   FIG. 10 is a flowchart illustrating an example of the flow of the display process of the screen of FIG. The center device 4 acquires information on the number of vehicles that have entered and the number of vehicles that have exited from a specific surveillance camera 2, for example, surveillance cameras 2 (1) and 2 (n), and executes a predetermined calculation (S41). The predetermined calculation is a calculation for displaying the number of the display units 53 and 55 described above.

そして、センタ装置4は、特定の監視カメラ2からの画像データを取得し(S42)、S41とS42で得た情報に基づき、図9の画面データを更新する(S43)。その結果、モニタ6に表示される画面51の内容は、リアルタイムの表示となる。   And the center apparatus 4 acquires the image data from the specific surveillance camera 2 (S42), and updates the screen data of FIG. 9 based on the information obtained in S41 and S42 (S43). As a result, the contents of the screen 51 displayed on the monitor 6 are displayed in real time.

(ログデータ)
各監視カメラ2のメモリ27には、上述したようにログデータが格納される。計測及び記録処理部P3は、立体計測部23において得られた距離画像に基づいて、認識して得られた各物体について、識別子を付与し、その物体について、図11に示す各データを取得或いは計算して得て、メモリ27に記憶する。
メモリ27の容量は、制限があるので、新しいデータが記録されるときは、最も古いデータが消去される。メモリ27には、例えば、過去、数十時間のデータが記憶される。
(Log data)
Log data is stored in the memory 27 of each surveillance camera 2 as described above. The measurement and recording processing unit P3 assigns an identifier to each object obtained by recognition based on the distance image obtained by the three-dimensional measurement unit 23, and acquires each data shown in FIG. Obtained by calculation and stored in the memory 27.
Since the memory 27 has a limited capacity, the oldest data is erased when new data is recorded. In the memory 27, for example, data for several tens of hours in the past is stored.

図11は、ログデータのデータ構造を示す図である。図11のログデータは、監視カメラ2の上りと下り毎に生成されて記憶されるデータである。
図11は、監視カメラ2の識別番号(図11では、監視カメラ2(k)として示されている)の上りの車線のログデータを示す。ログデータ61は、上りと下り別に、カメラ識別番号(カメラ#(上り))、車両ID、時刻(入)、時刻(出)、物体の複数の属性、速度、監視領域内に入ったときの位置(入)、監視領域内から出たときの位置(出)、監視領域内の軌跡、等のデータを含む。
FIG. 11 is a diagram illustrating a data structure of log data. The log data in FIG. 11 is data that is generated and stored every time the monitoring camera 2 goes up and down.
FIG. 11 shows log data of the upstream lane of the identification number of the monitoring camera 2 (shown as monitoring camera 2 (k) in FIG. 11). The log data 61 includes the camera identification number (camera # (up)), vehicle ID, time (on), time (out), multiple attributes of the object, speed, and when entering the monitoring area separately for ascending and descending. It includes data such as the position (on), the position (out) when exiting from the monitoring area, and the trajectory within the monitoring area.

車両IDは、監視カメラ2毎に付与されるので、所謂ローカルIDである。時刻(入)と時刻(出)は、それぞれ、認識された物体が監視領域内に入った及び出た時刻であり、ミリ秒単位の時刻データである。属性は、例えば、認識された物体の色、体積、高さ、形状などのデータである。体積、高さ、形状などは、距離画像データに基づいて算出される。速度は、監視領域内を走行する物体の位置の変化から演算により算出されるデータである。   Since the vehicle ID is assigned to each surveillance camera 2, it is a so-called local ID. Time (on) and time (out) are the times when the recognized object enters and exits the monitoring area, and are time data in milliseconds. The attribute is, for example, data such as the color, volume, height, and shape of the recognized object. The volume, height, shape, and the like are calculated based on the distance image data. The speed is data calculated by calculation from a change in the position of an object traveling in the monitoring area.

位置(入)と位置(出)は、それぞれ、監視領域内の位置であり、例えば、監視領域のXY平面上において、物体が監視領域に入ったときの位置と監視領域から出て行ったときの位置のデータである。軌跡は、監視領域のXY平面上における、認識された物体の位置、例えば先頭位置、重心位置等、の変化を示す軌跡データである。
図11に示すデータ以外のデータもログデータとしてメモリ27に記憶してもよい。
The position (on) and the position (out) are positions within the monitoring area. For example, on the XY plane of the monitoring area, the position when the object enters the monitoring area and when the object leaves the monitoring area This is the position data. The trajectory is trajectory data indicating changes in the position of the recognized object on the XY plane of the monitoring area, such as the head position and the center of gravity position.
Data other than the data shown in FIG. 11 may also be stored in the memory 27 as log data.

上述したように、メモリ27のログデータ61は、車両毎に生成されるが、ローカルIDのデータである。センタ装置4は、全てのあるいは一部の監視カメラ2からログデータを収集することができる。   As described above, the log data 61 in the memory 27 is generated for each vehicle, but is local ID data. The center device 4 can collect log data from all or some of the monitoring cameras 2.

センタ装置4は、各監視カメラ2から収集したログデータ中の時刻(入)、時刻(出)、位置(入)及び位置(出)のデータを用いて、各監視カメラ2からの複数の車両IDを、互いに関連付ける処理を行うことができる。   The center device 4 uses the time (on), time (out), position (on), and position (out) data in the log data collected from each monitoring camera 2 to use a plurality of vehicles from each monitoring camera 2. A process of associating IDs with each other can be performed.

図12は、センタ装置4における車両IDの関連付けを説明するための図である。図12では、連続する監視カメラ2(k)から2(k+4)のそれぞれの撮影範囲が、PA(k)〜PA(k+4)として示されている。上述したように、隣り合う監視カメラ2の撮影範囲PA(点線で示す)は、重なっている。   FIG. 12 is a diagram for explaining association of vehicle IDs in the center device 4. In FIG. 12, the imaging ranges of the continuous monitoring cameras 2 (k) to 2 (k + 4) are shown as PA (k) to PA (k + 4). As described above, the shooting ranges PA (indicated by dotted lines) of the adjacent monitoring cameras 2 overlap.

撮影範囲PA内には、ログデータ中、時刻(入)、時刻(出)、位置(入)及び位置(出)のデータを取得するための監視領域MRが設定されている。図12では、撮影範囲PA(k)〜PA(k+4)中に、それぞれ、監視領域MR(k)〜MR(k+4)が設定されている。隣り合う監視カメラ2の監視領域MRは、接するように設定される。この設定は、例えば、トンネル101内に監視カメラ2を設置した後に、各監視カメラ2からの撮影画像に基づいて、行われる。よって、隣り合う監視カメラ2の2つの監視領域MRが接して線(以下、境界線という)TL上の位置は、2つの監視領域MR間で関連付けることができる。   In the imaging range PA, a monitoring area MR for acquiring data of time (on), time (out), position (on) and position (out) in the log data is set. In FIG. 12, monitoring areas MR (k) to MR (k + 4) are set in the imaging ranges PA (k) to PA (k + 4), respectively. The monitoring areas MR of adjacent monitoring cameras 2 are set so as to contact each other. This setting is performed, for example, based on the captured image from each monitoring camera 2 after the monitoring camera 2 is installed in the tunnel 101. Therefore, the position on the line (hereinafter referred to as the boundary line) TL where two monitoring regions MR of adjacent monitoring cameras 2 are in contact with each other can be associated between the two monitoring regions MR.

そして、センタ装置4は、隣り合う監視カメラ2同士の境界線TL上の位置の関連情報を、記憶装置5に予め記憶しておく。その位置の関連情報は、記憶装置5の関連情報記憶部5cに記憶される。関連情報は、例えば、境界線TL上における、2つの監視領域MRの位置の変換式であり、全ての境界線TLについて生成されて、関連情報記憶部5cに記憶される。センタ装置4は、位置の関連情報に基づいて、隣り合う2つの監視領域MRの一方から見た境界線TL上の位置と、他方から見た同じ境界線TL上の位置が同じ位置であるかを判定することができる。   Then, the center device 4 stores in advance in the storage device 5 the related information of the position on the boundary line TL between the adjacent monitoring cameras 2. The related information of the position is stored in the related information storage unit 5 c of the storage device 5. The related information is, for example, a conversion formula for the positions of the two monitoring regions MR on the boundary line TL, and is generated for all the boundary lines TL and stored in the related information storage unit 5c. Based on the position related information, the center device 4 determines whether the position on the boundary line TL viewed from one of the two adjacent monitoring regions MR and the position on the same boundary line TL viewed from the other are the same position. Can be determined.

図12には、上りと下りのそれぞれにおけるある車両の軌跡が、点線で示されている。上りにおける監視領域MR(k)から出た車両の位置P1と、その隣の監視領域MR(k)から出た車両の位置P2は、それぞれの監視カメラ2(k)と2(k+1)から得られるので、監視カメラ2(k)の記録した時刻(出)と監視カメラ2(k+1)の記録した時刻(入)が一致し、かつ監視カメラ2(k)の記録した位置(出)と監視カメラ2(k+1)の記録した位置(入)が一致した場合は、2つの監視カメラ2で別個に生成されたログデータは、同じ車両についてのログデータと決定される。   In FIG. 12, the trajectory of a certain vehicle in each of the up and down directions is indicated by dotted lines. The position P1 of the vehicle exiting from the monitoring area MR (k) and the position P2 of the vehicle exiting from the adjacent monitoring area MR (k) are obtained from the respective monitoring cameras 2 (k) and 2 (k + 1). Therefore, the time (out) recorded by the monitoring camera 2 (k) matches the time (on) recorded by the monitoring camera 2 (k + 1), and the position (out) recorded by the monitoring camera 2 (k) is monitored. When the recorded positions (input) of the cameras 2 (k + 1) match, the log data generated separately by the two monitoring cameras 2 are determined as log data for the same vehicle.

そのために、センタ装置4は、複数の監視カメラ2の監視する領域における、監視カメラ同士の位置を関連付ける関連情報を有し、その関連情報に基づいて、複数の監視カメラが生成した車両の識別情報を関連付ける処理を行う関連付け処理部を有する。   For this purpose, the center device 4 has related information for associating the positions of the monitoring cameras in the area monitored by the plurality of monitoring cameras 2, and vehicle identification information generated by the plurality of monitoring cameras based on the related information. An association processing unit for performing a process of associating

その結果、各監視カメラ2において別個に生成されたローカルIDの車両IDを有する2つのログデータは、同じ車両のものであると判定できるので、一つの車両IDのログデータとして纏めることができる。言い換えると、車両IDをグローバルIDに変換することができる。   As a result, the two log data having the vehicle ID of the local ID generated separately in each monitoring camera 2 can be determined to be of the same vehicle, and can be collected as log data of one vehicle ID. In other words, the vehicle ID can be converted into a global ID.

なお、ログデータには、各種属性データが含まれるので、複数のログデータを、同じ車両についてのログデータと決定するときに、属性データを確認用データとして用いるようにしてもよい。   Since the log data includes various attribute data, the attribute data may be used as confirmation data when determining a plurality of log data as log data for the same vehicle.

センタ装置4は、全ての監視カメラ2のログデータを収集してこのような処理を行うことによって、全ての車両についての、トンネルの入口から出口までの道路上の走行状態のデータを生成して得ることができる。そのデータは、各車両のトンネル内の走行履歴データである。   The center device 4 collects log data of all the monitoring cameras 2 and performs such processing, thereby generating data on the traveling state on the road from the entrance to the exit of the tunnel for all the vehicles. Obtainable. The data is travel history data in the tunnel of each vehicle.

よって、事故等の何らかのイベントが発生した直後に、センタ装置4が全ての監視カメラ2に対してログデータを送信するログデータ送信コマンドを送信して、全ての監視カメラ2のログデータを収集して、上記のような各車両の走行履歴データを生成する。生成された各車両の走行履歴データは、事故直後の事故に関わる車両の走行状態を示すので、事故の原因を調査する者にとっては、有効な情報となる。   Therefore, immediately after an event such as an accident occurs, the center apparatus 4 transmits a log data transmission command for transmitting log data to all the monitoring cameras 2, and collects log data of all the monitoring cameras 2. Thus, the travel history data of each vehicle as described above is generated. The generated traveling history data of each vehicle indicates the traveling state of the vehicle related to the accident immediately after the accident, and thus is effective information for those who investigate the cause of the accident.

なお、図12では、隣り合う監視カメラ2の監視領域MRは、接するように設定されているが、重なって、あるいは完全に接していなくてもよい。重なっている場合は、重なっている領域の位置情報の関連付けを行うことによって、2つのログデータの関連付けを行うことができる。また、隣り合う監視カメラ2の監視領域MRが接していない場合は、その間の距離に応じた時間と位置の推定処理を行うことによって、2つのログデータの関連付けを行うことができる。   In FIG. 12, the monitoring areas MR of adjacent monitoring cameras 2 are set so as to be in contact with each other, but may not overlap or completely contact with each other. In the case of overlapping, it is possible to associate two pieces of log data by associating positional information of overlapping areas. Further, when the monitoring areas MR of the adjacent monitoring cameras 2 are not in contact with each other, two log data can be associated by performing time and position estimation processing according to the distance between them.

(トンネル内状況表示)
通行車両監視システム1は、さらに所望の監視場所の状況を、状況表示画面としてセンタ装置4のモニタ6に詳細に表示することができる。
図13に示すような場所を例として説明する。図13は、トンネル内のある監視場所の周囲及び設備の状況を示す図である。例えば、建築構造物であるトンネル101内のある部分111において、天井面には2つの換気扇112が取り付けられ、さらに、避難通路113と、避難通路113へ通じる避難口114、電話設備115、緊急時の待避施設116があるとする。道路面103上には、道路のセンタラインとしての白線117が引かれている。
(Status display in tunnel)
The traffic vehicle monitoring system 1 can further display the status of a desired monitoring location in detail on the monitor 6 of the center device 4 as a status display screen.
A place as shown in FIG. 13 will be described as an example. FIG. 13 is a diagram showing the surroundings of a certain monitoring place in the tunnel and the state of the equipment. For example, in a certain part 111 in the tunnel 101 which is a building structure, two ventilation fans 112 are attached to the ceiling surface. It is assumed that there is a refuge facility 116. On the road surface 103, a white line 117 as a road center line is drawn.

そして、例えば、監視カメラ2によりトンネル101内のその部分111で停止物体が検出されて、監視室の監視員は、その異常通報に応じて、その場所の詳細な情報を知りたい場合がある。   Then, for example, the monitoring camera 2 detects a stop object at the portion 111 in the tunnel 101, and the monitoring person in the monitoring room may want to know detailed information on the location in response to the abnormality report.

そのような場合、監視員は、センタ装置4のキーボード、マウスなどの入力装置を用いて、状況表示画面の表示指示のための所定の操作を行うことによって、モニタ6に、図14に示すような現場の周囲の情報を表示させることができる。あるいは、センタ装置4が監視カメラ2からの異常の通報を受信して、その通報内容に応じて、状況表示画面が、自動的に生成される。すなわち、状況表示画面は、監視員からの指示により、あるいは監視カメラ2からの異常通報に基づいて、その都度合成される。   In such a case, the monitor uses the input device such as the keyboard and the mouse of the center device 4 to perform a predetermined operation for instructing the display of the status display screen, thereby causing the monitor 6 to display as shown in FIG. It is possible to display information around the site. Or the center apparatus 4 receives the report of the abnormality from the monitoring camera 2, and according to the content of the report, a status display screen is automatically generated. In other words, the status display screen is synthesized each time according to an instruction from the monitoring person or based on an abnormality report from the monitoring camera 2.

図14は、その現場の周囲の情報を表示する状況表示画面の例を示す図である。図14に示すように、モニタ6の画面71には、上記の部分111に対応するトンネル図形111A(点線で示す)が3次元画像で表示され、そのトンネル図形111Aのそれぞれの対応する位置に、換気扇図形112A、避難通路図形113Aと、避難口図形114A、電話設備図形115A、待避施設図形116A、及び白線図形117A(点線で示す)が、3次元画像で表示されている。さらに、停止物体である車両図形118Aも合わせて、表示されている。   FIG. 14 is a diagram showing an example of a status display screen that displays information around the site. As shown in FIG. 14, on the screen 71 of the monitor 6, a tunnel graphic 111A (indicated by a dotted line) corresponding to the above-mentioned portion 111 is displayed as a three-dimensional image, and at each corresponding position of the tunnel graphic 111A, A ventilation fan graphic 112A, an evacuation passage graphic 113A, an evacuation exit graphic 114A, a telephone facility graphic 115A, a shelter facility graphic 116A, and a white line graphic 117A (shown by dotted lines) are displayed as a three-dimensional image. Further, a vehicle figure 118A which is a stop object is also displayed.

これらの図形を表示するための情報は、記憶装置5に予め記憶されている。具体的には、トンネル101は、建築構造物であり、その設計あるいは施工データは、設計時あるいは施工時に作成されているので、その形状等の構造情報に基づく図形情報は、これらの設計あるいは施工データから、予め抽出あるいは選択されて、建築構造物の画像情報として、記憶装置5の建築構造物表示情報記憶部5fに記憶されている。
建築構造物表示情報記憶部5fは、さらに、トンネル101の周辺の設備、例えば水道管、ガス管、の画像情報、及び避難ルートの画像情報なども記憶している。
Information for displaying these figures is stored in the storage device 5 in advance. Specifically, since the tunnel 101 is a building structure, and its design or construction data is created at the time of design or construction, the graphic information based on the structural information such as its shape is the design or construction of these. It is previously extracted or selected from the data, and is stored in the building structure display information storage unit 5f of the storage device 5 as image information of the building structure.
The building structure display information storage unit 5f further stores facility information around the tunnel 101, such as image information of water pipes and gas pipes, and image information of evacuation routes.

よって、建築構造物表示情報記憶部5fは、トンネル101の形状及び構造の画像情報と、周辺の設備の画像情報と、それらの属性情報とを、記憶している。
さらに、トンネル101に関わる設備の表示用画像は、記憶装置5の設備表示情報記憶部5dに予め記憶されている。
Therefore, the building structure display information storage unit 5f stores image information of the shape and structure of the tunnel 101, image information of peripheral facilities, and attribute information thereof.
Further, the display image of the equipment related to the tunnel 101 is stored in advance in the equipment display information storage unit 5 d of the storage device 5.

なお、建築構造物表示情報記憶部5fと設備表示情報記憶部5dは、各表示用画像の情報を、形状、構造、寸法等のCADデータ、あるいはCGデータの3次元データ形式で、記憶している。   The building structure display information storage unit 5f and the facility display information storage unit 5d store the information of each display image in CAD data such as shape, structure, and dimensions, or in the three-dimensional data format of CG data. Yes.

さらに、車両に関する表示用画像も、予め記憶装置5の車両表示情報記憶部5eに記憶されている。ここでは、車両表示情報記憶部5eには、検出された車両の種類に応じた、車両の表示用画像が記憶されている。   Further, the display image related to the vehicle is also stored in advance in the vehicle display information storage unit 5 e of the storage device 5. Here, the vehicle display information storage unit 5e stores a vehicle display image corresponding to the detected vehicle type.

図14では、トンネル101、設備等112〜117の情報を表示する情報表示画像としての情報表示部D1〜D7が、それぞれの引き出し線dlにより、各図形111A〜117Aと関連付けられて表示されている。例えば、情報表示部D2〜D7は、引き出し線dlにより関連付けられた設備等の名称、及び状態などの文字情報を表示する。例えば、換気扇112については、換気扇図形112Aから引き出し線dlにより関連付けられて、「換気扇:オン」の文字を含む情報表示部D2が表示されている。   In FIG. 14, information display portions D1 to D7 as information display images for displaying information of the tunnel 101, facilities 112 to 117, and the like are displayed in association with the respective figures 111A to 117A by respective lead lines dl. . For example, the information display units D2 to D7 display the character information such as the name and state of the equipment associated with the lead line dl. For example, regarding the ventilation fan 112, an information display unit D2 including characters of “ventilation fan: ON” is displayed in association with the lead line dl from the ventilation fan figure 112A.

なお、ここでは、白線図形117Aの図形情報は、設備の1つとして設備情報記憶部5dに記憶されているが、トンネル101に付帯するものとして、建築構造物表示情報記憶部5fに記憶してもよい。   Here, the graphic information of the white line graphic 117A is stored in the facility information storage unit 5d as one of the facilities, but is stored in the building structure display information storage unit 5f as an accessory to the tunnel 101. Also good.

換気扇112,避難口114等の設備については、設備管理装置7から動作状態の情報を得て、機器の「オン」、「オフ」、扉の「施錠中」、「施錠解除」、等の動作状態が、情報表示部に表示される。
以上のように、各情報表示部D2〜D7は、モニタ6に表示された設備に関する情報を、モニタ6に表示された設備の表示用画像と関連付けて表示する情報表示画像である。
For equipment such as the ventilating fan 112 and the evacuation exit 114, the operation status information is obtained from the equipment management device 7, and operations such as “on”, “off”, “locking”, “unlocking” of the door, etc. The state is displayed on the information display unit.
As described above, each of the information display units D2 to D7 is an information display image that displays information related to the facility displayed on the monitor 6 in association with the display image of the facility displayed on the monitor 6.

また、停止物体として車両図形118Aも、画面51上に表示されている。停止物体を検出した監視カメラ2は、上述した追加処理部Q1により停止物体が車両であることを判定する。その判定結果の情報は、監視カメラ2の通報処理(S24)により、センタ装置4へ伝えられる。よって、センタ装置4は、その通報処理により得られた情報に基づいて、画面71上に、停止物体としての車両の表示画像を表示させることができる。   In addition, a vehicle graphic 118 </ b> A is also displayed on the screen 51 as a stop object. The surveillance camera 2 that has detected the stopped object determines that the stopped object is a vehicle by the additional processing unit Q1 described above. Information on the determination result is transmitted to the center device 4 by the notification process (S24) of the monitoring camera 2. Therefore, the center device 4 can display a display image of the vehicle as a stop object on the screen 71 based on the information obtained by the notification process.

例えば、追加処理部Q1が、監視カメラ2が距離画像から車両の大きさ別に、「小型車両」、「中型車両」、「大型車両」の3種類を判別し、通報処理によりセンタ装置4には、車両の種類の情報が伝えられる。車両表示情報記憶部5eには、3つの種類の車両の形状等のデータが予め記憶されている。よって、センタ装置4は、その種類に応じた車両の図形データを読み出して、画面71上に、表示することができる。   For example, the additional processing unit Q1 discriminates three types of “small vehicle”, “medium size vehicle”, and “large vehicle” according to the size of the vehicle from the distance image by the monitoring camera 2, and the center device 4 is notified by the notification process. , Vehicle type information is conveyed. The vehicle display information storage unit 5e stores data such as three types of vehicle shapes in advance. Therefore, the center device 4 can read the vehicle graphic data corresponding to the type and display it on the screen 71.

ここでは、追加処理部Q1が車両の距離画像のデータから、車両の位置だけでなく、車両の種類と色も認識して、その認識情報をセンタ装置4に送信し、その結果、図14に示すように、センタ装置4は、その認識情報から、情報表示部D8に、「小型車両、白」の情報を表示している。よって、監視員は、図14のような図を見ることによって、停止物体が「白の小型車両」であり、かつ周囲の状況を把握することができる。   Here, the additional processing unit Q1 recognizes not only the position of the vehicle but also the type and color of the vehicle from the data of the distance image of the vehicle, and transmits the recognition information to the center device 4. As a result, FIG. As shown, the center device 4 displays information of “small vehicle, white” on the information display unit D8 from the recognition information. Therefore, the observer can grasp the surrounding situation by looking at a diagram as shown in FIG. 14 and that the stopped object is a “white small vehicle”.

図15は、図14の表示画像を生成するためのソフトウエア処理の構成を示すブロック図である。図15に示す状況表示画面生成処理は、センタ装置4のCPUによって実行される、記憶装置5に記憶されたソフトウエアプログラムの処理である。   FIG. 15 is a block diagram showing a configuration of software processing for generating the display image of FIG. The status display screen generation processing shown in FIG. 15 is processing of a software program stored in the storage device 5 that is executed by the CPU of the center device 4.

状況表示画面生成処理プログラムは、画像生成制御部121と、表示情報収集部122と、表示演出部123と、表示画像生成部124と、実写画像の前処理及び合成処理部125とを含んで構成されている。状況表示画面生成処理プログラムは、監視員からの表示指示コマンドDC又は監視カメラ2からの異常通報に基づき実行される。   The situation display screen generation processing program includes an image generation control unit 121, a display information collection unit 122, a display effect unit 123, a display image generation unit 124, and a live-action image preprocessing and synthesis processing unit 125. Has been. The status display screen generation processing program is executed based on a display instruction command DC from the monitoring staff or an abnormality report from the monitoring camera 2.

監視員が図14の状況表示画面71の表示指示コマンドDCをセンタ装置4に与えると、あるいは、センタ装置4が監視カメラ2からの情報に基づいて状況表示画面71の表示指示コマンドDCを自動的に生成すると、画像生成制御部121は、その表示指示コマンドDCを受信する。表示指示コマンドDCは、表示位置情報DP、表示形態情報DS、及び停止物体情報などの監視カメラ2により得られた監視カメラ情報MC、等を含む。
表示位置情報DPは、例えば、トンネル101内の停止物体の位置の情報である。
When the monitoring person gives the display instruction command DC of the status display screen 71 of FIG. 14 to the center device 4, or the center device 4 automatically issues the display instruction command DC of the status display screen 71 based on the information from the monitoring camera 2. Then, the image generation control unit 121 receives the display instruction command DC. The display instruction command DC includes display position information DP, display form information DS, monitoring camera information MC obtained by the monitoring camera 2 such as stop object information, and the like.
The display position information DP is information on the position of a stopped object in the tunnel 101, for example.

表示形態情報DSは、表示位置情報DPにより指定された場所の画像を、どのような形態で表示するかの情報である。表示形態情報DSは、例えば、各表示用画像の視点位置、強調表示の有無、等の情報である。例えば、強調表示の情報は、特定の設備を点滅表示させる、ハイライトを付けて表示する等の情報である。   The display form information DS is information on the form in which the image of the place specified by the display position information DP is displayed. The display form information DS is information such as the viewpoint position of each display image, the presence / absence of highlighting, and the like, for example. For example, the highlighted information is information such as blinking a specific facility or displaying it with a highlight.

なお、表示指示コマンドDCは、その原因(停止車両の検出等)に対応したコマンドであり、画像生成制御部121は、コマンドに対応する、すなわち原因に対応する表示形態情報DSを生成する。   The display instruction command DC is a command corresponding to the cause (detection of a stopped vehicle or the like), and the image generation control unit 121 generates display form information DS corresponding to the command, that is, corresponding to the cause.

監視カメラ情報MCは、停止物体が車両であるか人であるかの情報、車両の種類の情報、車両の位置の変化の情報(すなわち動線あるいは軌跡の情報)、車両の軌跡が避走であるか否かの情報、認識された物体の色などの属性情報、等である。
画像生成制御部121は、受信した表示位置情報DP、表示形態情報DS及び監視カメラ情報MCに基づいて、まず、表示情報収集部122に、状況表示画面71の表示に必要な表示用画像の収集を指示する。
The monitoring camera information MC includes information on whether the stopped object is a vehicle or a person, information on the type of vehicle, information on a change in the position of the vehicle (that is, information on a flow line or a trajectory), Information on whether or not there is, attribute information such as the color of the recognized object, and the like.
Based on the received display position information DP, display form information DS, and monitoring camera information MC, the image generation control unit 121 first collects display images necessary for displaying the status display screen 71 in the display information collection unit 122. Instruct.

表示情報収集部122は、表示位置情報DP、表示形態情報DS及び監視カメラ情報MCに基づき、状況表示画面71内に表示すべき表示用画像及び情報表示部の情報(以下、パーツ情報という)を収集する。   Based on the display position information DP, the display form information DS, and the monitoring camera information MC, the display information collection unit 122 displays the display image to be displayed in the status display screen 71 and information on the information display unit (hereinafter referred to as parts information). collect.

なお、パーツ情報の表示用画像は、上述したように、3次元画像で表示するための3次元データであるが、2次元画像の組み合わせからなる情報でもよい。パーツ情報の表示用画像が2次元画像の組み合わせの情報の場合、最終的に表示される設備、車両などの画像は、複数の2次元画像が貼り合わせて立体的に見える画像である。   Note that the part information display image is three-dimensional data to be displayed as a three-dimensional image as described above, but may be information including a combination of two-dimensional images. When the part information display image is information of a combination of two-dimensional images, the finally displayed images of facilities, vehicles, and the like are images that are stereoscopically viewed by combining a plurality of two-dimensional images.

記憶装置5の設備表示情報記憶部5dは、換気扇表示図形情報記憶部5d1、避難通路図形情報記憶部5d2、等の、設備毎の表示用図形情報記憶部を含む。各表示用図形情報記憶部5d1,5d2、・・は、各設備のトンネル101内の設置位置、形状、属性等の情報を含む。後述するように、属性情報には、設備の名称等も含まれる。   The facility display information storage unit 5d of the storage device 5 includes a display graphic information storage unit for each facility, such as a ventilation fan display graphic information storage unit 5d1 and an escape passage graphic information storage unit 5d2. Each of the display graphic information storage units 5d1, 5d2,... Includes information such as the installation position, shape, attribute, and the like in the tunnel 101 of each facility. As will be described later, the attribute information includes the name of the facility.

よって、表示情報収集部122は、表示位置情報DPと表示形態情報DSに基づいて、設備表示情報記憶部5dから、表示すべき範囲内に含まれる設備に関するパーツ情報を収集する。例えば、表示形態情報DSが、表示位置情報DPが示す位置を含む所定の範囲(例えば、前後20mの範囲)を、所定の視点位置から(例えば、前方左斜め上からの視点位置から)見た状態で、表示することを示していたとする。その場合、表示情報収集部122は、記憶装置5の設備表示情報記憶部5dから、その所定の範囲内に存在する設備についての、パーツ情報を収集する。   Therefore, the display information collection unit 122 collects part information related to the equipment included in the range to be displayed from the equipment display information storage unit 5d based on the display position information DP and the display form information DS. For example, the display form information DS is viewed from a predetermined viewpoint position (for example, from the viewpoint position obliquely from the upper left front) including a predetermined range (for example, a range of 20 m before and after) including the position indicated by the display position information DP. Suppose that the status indicates that it is displayed. In that case, the display information collection unit 122 collects part information about the equipment existing within the predetermined range from the equipment display information storage unit 5d of the storage device 5.

表示用画像情報記憶部5dは、さらに、設備管理装置7からの設備の動作状態の情報を、各設備と関連付けて記憶する記憶部を含む。よって、表示情報収集部122は、表示すべき設備の動作状態の情報を収集することができる。   The display image information storage unit 5d further includes a storage unit that stores information on the operation state of the facility from the facility management apparatus 7 in association with each facility. Therefore, the display information collecting unit 122 can collect information on the operating state of the equipment to be displayed.

さらに、表示情報収集部122は、監視カメラ情報MCに基づき、車両表示情報記憶部5eから、その車両の種類に応じた表示用画像のデータを収集する。上述したように、監視カメラ2が、停止物体が車両であり、かつ小型車両であると判定したときには、表示情報収集部122は、その情報に基づいて、小型車両用の表示用画像のデータを収集する。   Further, the display information collection unit 122 collects display image data corresponding to the type of the vehicle from the vehicle display information storage unit 5e based on the monitoring camera information MC. As described above, when the monitoring camera 2 determines that the stop object is a vehicle and a small vehicle, the display information collection unit 122 uses the information to display display image data for the small vehicle. collect.

そして、表示情報収集部122は、各設備と停止物体について、図14のような表示形態の状況表示画面71を表示するためのパーツ情報を、表示演出部123に供給する。
表示演出部123は、画像生成制御部121からの表示形態情報DSに基づいて、収集した各パーツ情報の表示用画像の表示形態を決定する。
Then, the display information collecting unit 122 supplies part information for displaying the status display screen 71 in the display form as shown in FIG.
Based on the display form information DS from the image generation control part 121, the display effect part 123 determines the display form of the display image for each collected part information.

なお、上述したように、表示指示コマンドDCはその発生原因に対応したコマンドであるので、例えば、画像生成制御部121は、火災を原因とするコマンドを受信した場合には、建築構造物表示情報記憶部5fから、部分111内のガス管、避難ルート等の情報を得て、表示演出部123へ供給する。   As described above, since the display instruction command DC is a command corresponding to the cause of the occurrence, for example, when the image generation control unit 121 receives a command caused by a fire, the building structure display information is displayed. Information such as the gas pipe and the evacuation route in the portion 111 is obtained from the storage unit 5 f and supplied to the display effect unit 123.

表示演出部123は、強調表示などの演出方法、すなわち画像の見せ方、の情報と共に、表示情報収集部122において収集されたパーツ情報を、表示画像生成部124へ供給する。   The display effect unit 123 supplies part information collected by the display information collecting unit 122 to the display image generating unit 124 together with information on an effect method such as highlighting, that is, how to display an image.

表示画像生成部124は、建築構造物表示情報記憶部5fからトンネル101の部分111の構造情報、各パーツ情報、及び演出方法の情報を用いて、モニタ6に状況表示画面71を表示するための、トンネル101の部分111の画像、各設備の表示用画像及び車両の表示用画像を再構築する。   The display image generating unit 124 displays the status display screen 71 on the monitor 6 using the structure information of the portion 111 of the tunnel 101, each part information, and information on the production method from the building structure display information storage unit 5f. Then, the image of the portion 111 of the tunnel 101, the display image of each facility, and the display image of the vehicle are reconstructed.

表示画像生成部124は、再構築の結果得られた各図形111A〜118Aの画像データをモニタ6に出力する。   The display image generation unit 124 outputs the image data of each of the graphics 111A to 118A obtained as a result of the reconstruction to the monitor 6.

なお、表示演出部123の決定した演出方法において、停止車両は、実写映像を用いることが指示された場合、表示画像生成部124は、監視カメラ2からの画像データを得て、実写画像の前処理及び合成処理部125において処理した車両の画像データを用いて、車両図形118Aを生成する。   In the production method determined by the display production unit 123, when the stop vehicle is instructed to use the live-action video, the display image generation unit 124 obtains the image data from the monitoring camera 2 and displays the pre-production image. The vehicle graphic 118A is generated using the vehicle image data processed by the processing and synthesis processing unit 125.

この場合、実際の画像には無い、影の部分の画像を、撮像された画像を複製して生成したり、実際に撮像された画像を、視点位置から見た形状に変形させたり、等の前処理を行って生成し、貼り合わせる等の合成処理が、実写映像の前処理及び合成処理部125において行われる。   In this case, an image of a shadow part that is not in the actual image is generated by duplicating the captured image, or the actually captured image is transformed into a shape viewed from the viewpoint position, etc. Synthesis processing such as pre-processing, generation, and pasting is performed in the pre-processing and synthesis processing unit 125 of the live-action video.

なお、車両の実写画像は、1台の監視カメラ2からだけでなく、複数の監視カメラ2から取得してもよい。そのようにすれば、車両図形は、複数の監視カメラ2からの撮像画像を組み合わせて生成する。すなわち、車両の表示用画像は、少なくとも1台の監視カメラからの実写画像のデータを用いて生成される。   In addition, you may acquire the real image of a vehicle not only from the one monitoring camera 2 but from the some monitoring camera 2. FIG. By doing so, the vehicle figure is generated by combining the captured images from the plurality of monitoring cameras 2. That is, the display image of the vehicle is generated using the data of the photographed image from at least one surveillance camera.

実写画像の前処理及び合成処理部125は、監視カメラ2からの画像データを得て、状況表示画面71に表示するための車両の画像データを生成する処理部である。   The pre-processing and composition processing unit 125 for the photographed image is a processing unit that obtains image data from the surveillance camera 2 and generates vehicle image data to be displayed on the status display screen 71.

また、表示画像生成部124は、複数の情報表示部D1〜D8の画像も生成する。各情報表示部に表示される情報は、各設備の属性情報、車両の属性情報、及び、建築構造物であるトンネル101に関する属性情報から選択される。上述したように、換気扇図形112Aに関連付けた情報表示部D2には、その換気扇の動作状態の情報も表示されている。
表示画像生成部124は、これらの情報表示部D1〜D8の画像データも、モニタ6に出力するので、結果として、図14に示す状況表示画面71が、モニタ6に表示される。
The display image generation unit 124 also generates images of the plurality of information display units D1 to D8. The information displayed on each information display unit is selected from the attribute information of each facility, the attribute information of the vehicle, and the attribute information related to the tunnel 101 that is a building structure. As described above, the information display unit D2 associated with the ventilation fan figure 112A also displays information on the operating state of the ventilation fan.
Since the display image generation unit 124 also outputs the image data of these information display units D1 to D8 to the monitor 6, as a result, the status display screen 71 shown in FIG.

表示画像生成部124は、認識された車両の表示用画像と、複数の監視カメラ2が設置された建築構造物に関わる設備の表示用画像と、建築構造物の画像とを、指定された表示形態に従って、表示装置であるモニタ6に表示するために再構築する画像再構築部と、その画像再構築部で再構築されてモニタ6に表示された設備に関する情報を、モニタ6に表示された設備の表示用画像と関連付けて表示するための情報表示画像を生成する情報表示画像生成部と、を構成する。   The display image generation unit 124 designates the recognized display image of the vehicle, the display image of the equipment related to the building structure in which the plurality of monitoring cameras 2 are installed, and the image of the building structure. According to the form, information on the image reconstruction unit reconstructed to be displayed on the monitor 6 which is a display device, and the equipment reconstructed by the image reconstruction unit and displayed on the monitor 6 is displayed on the monitor 6. An information display image generation unit configured to generate an information display image to be displayed in association with the facility display image;

以上のようにして、通行車両監視装置であるセンタ装置4では、監視員の指示あるは異常の発生に応じて、状況表示画面71が生成されて表示されるので、監視員は、監視場所周囲の状況、及び監視場所周辺の設備情報も把握することができる。   As described above, in the center device 4 that is a passing vehicle monitoring device, the status display screen 71 is generated and displayed in response to an instruction or abnormality of the monitoring staff. And the equipment information around the monitoring location.

図16は、距離画像に基づく、状況表示画面の他の例を示す図である。例えば、図16の状況表示画面72は、モニタ6が立体表示の可能なモニタである場合に、トンネル101内のある場所を、天井から垂直方向の視点から見た画像を、立体表示させた状況表示画面の例である。   FIG. 16 is a diagram illustrating another example of the situation display screen based on the distance image. For example, when the monitor 6 is a monitor capable of stereoscopic display, the situation display screen 72 in FIG. 16 is a situation in which an image obtained by viewing a certain place in the tunnel 101 from a vertical viewpoint from the ceiling is stereoscopically displayed. It is an example of a display screen.

図16に示すように、トンネル101内のある範囲R1のトンネル図形112Aに、事故車両131と、トンネル101内のその部分に存在する車両図形132が合成されて立体表示されている。センタ装置4は、範囲R1内の監視カメラ2へ所定のコマンドを送信して、範囲R1内の距離画像のデータを得ることができるので、その距離画像のデータに基づいて、立体表示用画像データを生成して、モニタ6に、状況表示画面72として表示する。よって、監視員は、事故現場の状況をより理解し易い。   As shown in FIG. 16, an accident vehicle 131 and a vehicle graphic 132 existing in that portion of the tunnel 101 are combined with a tunnel graphic 112 </ b> A in a certain range R <b> 1 in the tunnel 101 and displayed in a three-dimensional manner. Since the center device 4 can obtain a range image data within the range R1 by transmitting a predetermined command to the surveillance camera 2 within the range R1, the stereoscopic display image data is based on the range image data. Is displayed on the monitor 6 as a status display screen 72. Therefore, it is easier for the observer to understand the situation at the accident site.

また、監視員は、図16の状況表示画面72内において、例えば、道路上のある範囲あるいは点A1の拡大表示を指示すると、その部分の拡大画像が、拡大表示枠133内に表示される。図16では、拡大表示枠133には、人が拡大表示されている。   In addition, when the monitor instructs the enlarged display of a certain area on the road or the point A1 in the status display screen 72 of FIG. 16, an enlarged image of that part is displayed in the enlarged display frame 133. In FIG. 16, a person is enlarged and displayed in the enlarged display frame 133.

また、監視カメラ2からの情報に基づいて、センタ装置4は、複数の車両が、避走し、かつ同じ位置で同様の軌跡で走行していることを判定できる場合がある。図16において、例えば、複数の車両が略軌跡LNに沿って走行したことを、センタ装置4は検出したとする。そのような場合、センタ装置4は、その車両の位置の変化である軌跡LNも状況表示画面72に表示するようにしてもよい。さらに、所定の図形135(図16では斜線の丸の図形)を、その避走の原因となった物体が存在すると推定できる位置に、表示するようにしてもよい。なお、軌跡LN及び所定の図形135は、図14の画面において表示するようにしてもよい。   Further, based on information from the monitoring camera 2, the center apparatus 4 may be able to determine that a plurality of vehicles are running away and traveling along the same locus at the same position. In FIG. 16, for example, it is assumed that the center device 4 detects that a plurality of vehicles have traveled substantially along the locus LN. In such a case, the center device 4 may also display on the status display screen 72 a locus LN that is a change in the position of the vehicle. Further, a predetermined figure 135 (a hatched circle figure in FIG. 16) may be displayed at a position where it can be estimated that the object causing the escape is present. The trajectory LN and the predetermined graphic 135 may be displayed on the screen of FIG.

各監視カメラ2の各車両の位置の変化の情報は、上述した各監視カメラ2からのローカルな車両IDを互いに関連付ける処理を行うことによって、関連付けられるので、複数の監視カメラ2に跨った軌跡データとして、モニタ6に表示することができる。   Since the information on the change in the position of each vehicle of each surveillance camera 2 is associated by performing the process of associating the local vehicle IDs from each surveillance camera 2 described above with each other, the trajectory data across the plurality of surveillance cameras 2 Can be displayed on the monitor 6.

従って、表示画像生成部124は、認識された車両の識別情報に基づいて、車両の距離画像のデータから得られた、軌跡データ等の情報を、車両の表示用画像と関連付けて表示する情報表示画像生成部を構成する。   Accordingly, the display image generation unit 124 displays information such as trajectory data obtained from the vehicle distance image data in association with the vehicle display image based on the recognized vehicle identification information. An image generation unit is configured.

このような軌跡LNと図形135の追加表示を行うか否かは、画像生成制御部121が、監視カメラ2からの情報に基づいて、その表示形態と表示位置を決定する。その決定に基づいて、表示演出部123が、軌跡LNの図形と所定の図形135を生成して、指定された位置に表示するように、表示画像生成部124へ指示を行う。   Whether or not to additionally display the locus LN and the figure 135 is determined by the image generation control unit 121 based on information from the monitoring camera 2. Based on the determination, the display effect unit 123 instructs the display image generation unit 124 to generate the graphic of the locus LN and the predetermined graphic 135 and display the graphic at the specified position.

以上のように、上述した本実施の形態による通行車両監視システムによれば、道路上の車両等を正確に認識し、設置が容易で、かつ監視場所周囲の状況、及び監視場所周辺の設備情報を表示できる通行車両監視システム及び通行車両監視装置を提供することができる。   As described above, according to the traffic vehicle monitoring system according to the present embodiment described above, the vehicle on the road is accurately recognized, easy to install, the situation around the monitoring place, and the facility information around the monitoring place. It is possible to provide a traffic vehicle monitoring system and a traffic vehicle monitoring device that can display the vehicle.

なお、上述した実施の形態は、通行車両監視システム及び車両用監視カメラをトンネルの車両を監視する例であるが、上述した通行車両監視システム及び車両用監視カメラは、トンネル内の車両の監視だけでなく、通常の道路、高速道路等の他の建築構造物における車両の監視にも適用できるものである。   In addition, although embodiment mentioned above is an example which monitors the vehicle of a tunnel with a traffic vehicle monitoring system and a vehicle monitoring camera, the above-mentioned traffic vehicle monitoring system and vehicle monitoring camera are only monitoring the vehicle in a tunnel. In addition, the present invention can be applied to monitoring of vehicles on other building structures such as ordinary roads and highways.

本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

1 通行車両監視システム、2 監視カメラ、3 通信ケーブル、4 センタ装置、5 記憶装置、5a 基準データ記憶部、5b 処理内容データ記憶部、11 ケーシング、12 対物光学系、13 コネクタ、21 撮像部、22 撮像I/F、23 立体計測部、24 基本監視部、25 追加監視部、26 判定部、27メモリ、28 画像供給部、29 通信制御部、30 通信I/F、31 撮像素子、41 設備の制御装置、101 トンネル、102 天井部分、103 道路面 DESCRIPTION OF SYMBOLS 1 Traffic vehicle monitoring system, 2 Surveillance camera, 3 Communication cable, 4 Center apparatus, 5 Storage apparatus, 5a Reference data storage part, 5b Processing content data storage part, 11 Casing, 12 Objective optical system, 13 Connector, 21 Imaging part, 22 imaging I / F, 23 stereoscopic measurement unit, 24 basic monitoring unit, 25 additional monitoring unit, 26 determination unit, 27 memory, 28 image supply unit, 29 communication control unit, 30 communication I / F, 31 imaging device, 41 equipment Control device, 101 tunnel, 102 ceiling part, 103 road surface

Claims (6)

数珠繋ぎに接続され、車両の通行状況を撮像する複数の監視カメラと、その複数の監視カメラに接続されたセンタ装置とからなる通行車両監視システムであって、
各監視カメラは、
複数の撮像部と、
前記複数の撮像部において得られた複数の画像から距離画像のデータを生成する距離画像生成部と、
前記距離画像に基づく第1の監視処理を実行する第1の監視処理部と、
記憶部と、
前記距離画像に基づいて認識された車両の識別情報を生成して、その識別情報と、その認識された車両についての時刻情報とを含む情報を前記記憶部に記録する記録処理部と、
前記距離画像に基づいて、前記第1の監視処理とは別の第2の監視処理を実行する第2の監視処理部と、
を有し、
前記センタ装置は、
前記複数のカメラからの前記距離画像のデータと、前記距離画像のデータに基づいて認識された車両の識別情報とを受信するカメラ情報受信部と、
前記認識された車両の表示用画像と、前記複数の監視カメラが設置された建築構造物に関わる設備の表示用画像と、前記建築構造物の画像とを、指定された表示形態に従って、表示装置に表示するために再構築する画像再構築部と、
該画像再構築部で再構築されて前記表示装置に表示された前記設備に関する情報を、前記表示装置に表示された前記設備の表示用画像と関連付けて表示するための情報表示画像を生成する情報表示画像生成部と、
を有する、
ことを特徴とする通行車両監視システム。
A traffic vehicle monitoring system comprising a plurality of surveillance cameras connected to a rosary and imaging a vehicle traffic situation, and a center device connected to the plurality of surveillance cameras,
Each surveillance camera
A plurality of imaging units;
A distance image generation unit for generating data of a distance image from a plurality of images obtained by the plurality of imaging units;
A first monitoring processing unit that executes a first monitoring process based on the distance image;
A storage unit;
A recording processing unit that generates identification information of the vehicle recognized based on the distance image, and records information including the identification information and time information about the recognized vehicle in the storage unit;
A second monitoring processor that executes a second monitoring process different from the first monitoring process based on the distance image;
Have
The center device is
A camera information receiving unit configured to receive data of the distance image from the plurality of cameras and vehicle identification information recognized based on the data of the distance image;
A display device that displays the recognized vehicle display image, the display image of the facility related to the building structure in which the plurality of monitoring cameras are installed, and the image of the building structure according to a designated display form An image reconstruction unit that is reconstructed for display on
Information for generating an information display image for displaying information related to the facility reconstructed by the image reconstruction unit and displayed on the display device in association with the display image of the facility displayed on the display device A display image generation unit;
Having
A vehicle monitoring system characterized by that.
複数のカメラからの距離画像のデータと、該距離画像のデータに基づいて認識された車両の識別情報とを受信するカメラ情報受信部と、
前記認識された車両の表示用画像と、前記複数の監視カメラが設置された建築構造物に関わる設備の表示用画像と、前記建築構造物の画像とを、指定された表示形態に従って、表示装置に表示するために再構築する画像再構築部と、
該画像再構築部で再構築されて前記表示装置に表示された前記設備に関する情報を、前記表示装置に表示された前記設備の表示用画像と関連付けて表示するための情報表示画像を生成する情報表示画像生成部と、
を有することを特徴とする通行車両監視装置。
A camera information receiving unit that receives distance image data from a plurality of cameras and vehicle identification information recognized based on the distance image data;
A display device that displays the recognized vehicle display image, the display image of the facility related to the building structure in which the plurality of monitoring cameras are installed, and the image of the building structure according to a designated display form An image reconstruction unit that is reconstructed for display on
Information for generating an information display image for displaying information related to the facility reconstructed by the image reconstruction unit and displayed on the display device in association with the display image of the facility displayed on the display device A display image generation unit;
A passing vehicle monitoring device characterized by comprising:
前記情報表示画像生成部は、さらに、前記認識された車両の前記識別情報に基づいて、前記車両の距離画像のデータから得られた情報を、前記車両の表示用画像と関連付けて表示することを特徴とする請求項2に記載の通行車両監視装置。   The information display image generation unit further displays information obtained from the distance image data of the vehicle in association with the display image of the vehicle based on the identification information of the recognized vehicle. The traffic vehicle monitoring apparatus according to claim 2, wherein the vehicle is monitored. 前記車両の距離画像のデータから得られた前記情報は、前記車両の位置の変化の情報であることを特徴とする請求項3に記載の通行車両監視装置。   The passing vehicle monitoring apparatus according to claim 3, wherein the information obtained from the data of the distance image of the vehicle is information on a change in the position of the vehicle. 前記複数の監視カメラは、
複数の撮像部と、
前記複数の撮像部において得られた複数の画像から前記距離画像のデータを生成する距離画像生成部と、
前記距離画像に基づく第1の監視処理を実行する第1の監視処理部と、
記憶部と、
前記距離画像に基づいて認識された車両の前記識別情報を生成して、前記識別情報と、前記認識された車両についての時刻情報とを含む情報を前記記憶部に記録する記録処理部と、
前記距離画像に基づいて、前記第1の監視処理とは別の第2の監視処理を実行する第2の監視処理部と、
を有することを特徴とする請求項2、3又は4に記載の通行車両監視装置。
The plurality of surveillance cameras include:
A plurality of imaging units;
A distance image generation unit that generates data of the distance image from a plurality of images obtained by the plurality of imaging units;
A first monitoring processing unit that executes a first monitoring process based on the distance image;
A storage unit;
A recording processing unit that generates the identification information of the vehicle recognized based on the distance image and records information including the identification information and time information about the recognized vehicle in the storage unit;
A second monitoring processor that executes a second monitoring process different from the first monitoring process based on the distance image;
The passing vehicle monitoring apparatus according to claim 2, 3 or 4, characterized by comprising:
前記建築構造物は、トンネルであり、
前記設備は、電話設備、避難口及び待避施設の少なくとも1つであることを特徴とする請求項2から5のいずれか1つに記載の通行車両監視装置。
The building structure is a tunnel;
The passing vehicle monitoring device according to any one of claims 2 to 5, wherein the facility is at least one of a telephone facility, an evacuation exit, and a refuge facility.
JP2010247687A 2010-11-04 2010-11-04 Traffic vehicle monitoring system and traffic vehicle monitoring device Expired - Fee Related JP5502700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010247687A JP5502700B2 (en) 2010-11-04 2010-11-04 Traffic vehicle monitoring system and traffic vehicle monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010247687A JP5502700B2 (en) 2010-11-04 2010-11-04 Traffic vehicle monitoring system and traffic vehicle monitoring device

Publications (2)

Publication Number Publication Date
JP2012099014A true JP2012099014A (en) 2012-05-24
JP5502700B2 JP5502700B2 (en) 2014-05-28

Family

ID=46390832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010247687A Expired - Fee Related JP5502700B2 (en) 2010-11-04 2010-11-04 Traffic vehicle monitoring system and traffic vehicle monitoring device

Country Status (1)

Country Link
JP (1) JP5502700B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103920A (en) * 2010-11-10 2012-05-31 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
JP2014146928A (en) * 2013-01-28 2014-08-14 Saxa Inc Imaging apparatus and imaging system
JP2015064752A (en) * 2013-09-25 2015-04-09 株式会社東芝 Vehicle monitoring device and vehicle monitoring method
WO2022185430A1 (en) * 2021-03-03 2022-09-09 株式会社日立国際電気 Radar system and object detection method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105761506B (en) * 2014-12-19 2018-04-13 中国科学院沈阳自动化研究所 A kind of flow statistic device based on light

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3307813B2 (en) * 1995-11-30 2002-07-24 三菱電機株式会社 Equipment management equipment
JP2002288783A (en) * 2001-03-22 2002-10-04 Sohatsu System Kenkyusho:Kk Road tunnel fire information providing system
JP2007193650A (en) * 2006-01-20 2007-08-02 Denso Corp Evacuation guidance system, onboard equipment, and roadside unit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3307813B2 (en) * 1995-11-30 2002-07-24 三菱電機株式会社 Equipment management equipment
JP2002288783A (en) * 2001-03-22 2002-10-04 Sohatsu System Kenkyusho:Kk Road tunnel fire information providing system
JP2007193650A (en) * 2006-01-20 2007-08-02 Denso Corp Evacuation guidance system, onboard equipment, and roadside unit

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103920A (en) * 2010-11-10 2012-05-31 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
JP2014146928A (en) * 2013-01-28 2014-08-14 Saxa Inc Imaging apparatus and imaging system
JP2015064752A (en) * 2013-09-25 2015-04-09 株式会社東芝 Vehicle monitoring device and vehicle monitoring method
WO2022185430A1 (en) * 2021-03-03 2022-09-09 株式会社日立国際電気 Radar system and object detection method
JP7449443B2 (en) 2021-03-03 2024-03-13 株式会社日立国際電気 Radar system and object detection method

Also Published As

Publication number Publication date
JP5502700B2 (en) 2014-05-28

Similar Documents

Publication Publication Date Title
JP5516343B2 (en) Traffic vehicle monitoring system
JP5634222B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
JP5516344B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
JP5502700B2 (en) Traffic vehicle monitoring system and traffic vehicle monitoring device
KR100835085B1 (en) A real time processing system and method of a traffic accident using an unmanned recording device
JP2000244897A (en) State recognition system and state recognition display generation method
KR101070883B1 (en) Server, Apparatus and System for monitoring vehicle
US20150195483A1 (en) Event recorder playback with integrated gps mapping
JP2020166541A (en) Accident responsibility identifying method, operation assisting method, accident responsibility identifying device, and computer program
JP2012011989A (en) Monitoring camera system of station platform
CN102834848A (en) Method for visualizing zones of higher activity in monitoring scenes
JP2019032684A (en) Patrol and inspection system
CN113762766A (en) Rail transit station transport pipe system, method and device
US9908542B2 (en) Event recorder with configurable alarm/event monitoring
JP6920776B2 (en) Monitoring support system and monitoring support method
JP2000163685A (en) Traffic flow monitoring system
JP5605178B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
JP2016092693A (en) Imaging apparatus, imaging apparatus control method, and program
KR101729985B1 (en) Tunnel integrated disaster prevention and broadcasting system for maintaining many tunnel integrated disaster prevention devices
KR101696730B1 (en) Method for intelligent city integrated monitoring and controlling system buildup
JP7107596B2 (en) Station monitoring system and station monitoring method
JP2006329706A (en) Distance-measuring device and distance measurement method
JP2007243270A (en) Video image surveillance system and method therefor
KR101686851B1 (en) Integrated control system using cctv camera
JP7107597B2 (en) STATION MONITORING DEVICE, STATION MONITORING METHOD AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140313

R150 Certificate of patent or registration of utility model

Ref document number: 5502700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees