JP2019008474A - Monitor supporting system and monitor supporting method - Google Patents

Monitor supporting system and monitor supporting method Download PDF

Info

Publication number
JP2019008474A
JP2019008474A JP2017122453A JP2017122453A JP2019008474A JP 2019008474 A JP2019008474 A JP 2019008474A JP 2017122453 A JP2017122453 A JP 2017122453A JP 2017122453 A JP2017122453 A JP 2017122453A JP 2019008474 A JP2019008474 A JP 2019008474A
Authority
JP
Japan
Prior art keywords
video
boundary
image
overhead
overhead view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017122453A
Other languages
Japanese (ja)
Other versions
JP6920776B2 (en
Inventor
政範 島田
Masanori Shimada
政範 島田
昇児 古山
Shoji Koyama
昇児 古山
宮本 学
Manabu Miyamoto
学 宮本
智樹 伊與田
Tomoki Iyoda
智樹 伊與田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
West Nippon Expressway Co Ltd
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Ltd
West Nippon Expressway Co Ltd
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, West Nippon Expressway Co Ltd, Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Ltd
Priority to JP2017122453A priority Critical patent/JP6920776B2/en
Publication of JP2019008474A publication Critical patent/JP2019008474A/en
Application granted granted Critical
Publication of JP6920776B2 publication Critical patent/JP6920776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To sufficiently monitor a road facility.SOLUTION: A monitor supporting system comprises: multiple cameras 4 that are installed in a tollgate T; an overhead view image generation part 12 for generating overhead view images from camera images that are picked up by the multiple cameras 4; a combined overhead view image generation part 13 for generating a combined overhead view image by combining the overhead view images that are generated by the overhead view image generation part 12; an abnormality detection processing part 22 for detecting an abnormal state of an object from the camera images that are picked up by the multiple cameras 4; and an image processing part 33 for emphasizing and displaying the object, in which the abnormal state is detected, in the combined overhead view image.SELECTED DRAWING: Figure 1

Description

本発明は、道路施設の監視を支援する監視支援システム及び監視支援方法の技術に関する。   The present invention relates to a technology for a monitoring support system and a monitoring support method for supporting monitoring of road facilities.

近年、ネットワーク技術の発展により、様々な分野において運用・維持管理の効率化が進んでいる。例えば道路分野では、料金収受システムとして、既にETC(Electronic Toll Collection)システムが広く普及しており、アイランド内部のブース内に収受員を配置する必要がない。このような収受員が存在しない料金所では、遠隔監視が行われる。   In recent years, with the development of network technology, the efficiency of operation and maintenance has been increasing in various fields. For example, in the road field, an ETC (Electronic Toll Collection) system is already widely used as a toll collection system, and there is no need to place a toll member in a booth inside the island. Remote monitoring is performed at such toll booths where there are no tollers.

特許文献1には、「有料道路(1)の第1料金所10の第1車線(11a)を監視し、監視画像の実時間データである監視画像実時間データを出力する複数の監視カメラ(501〜506)と、前記第1車線に設置されている第1料金自動収受装置(3)と、前記第1料金自動収受装置及び前記複数の監視カメラと接続されており、前記第1料金所に設置されている第1監視サーバ(6)と、前記第1監視サーバとネットワーク(999)を介して接続されている遠隔監視装置(7)とを具備している。前記遠隔監視装置は、前記第1料金自動収受装置に障害が発生しているか否かを表示する第1表示部(74)と、第1操作部(75)とを備えている」有料道路料金所の遠隔監視システムが開示されている(要約参照)。   In Patent Document 1, “a plurality of monitoring cameras that monitor the first lane (11a) of the first toll booth 10 on the toll road (1) and output monitoring image real-time data that is real-time data of the monitoring image ( 501 to 506), the first toll collection device (3) installed in the first lane, the first toll collection device and the plurality of monitoring cameras, and the first toll gate A first monitoring server (6) installed in a remote monitoring device (7) connected to the first monitoring server via a network (999), the remote monitoring device comprising: The toll road toll gate remote monitoring system includes a first display unit (74) for displaying whether or not a failure has occurred in the first toll collection device, and a first operation unit (75). Disclosed (see summary).

特許文献2には、「車両周囲の画像を複数の車載カメラ11,12,13,14で各々撮影し、これら複数の車載カメラ11,12,13,14により撮影された複数の撮影画像をそれぞれ俯瞰画像に変換すると共に繋ぎ合わせることで、1つの連続した俯瞰表示画像として表示装置40に表示するにあたり、第1乃至第4のソナー21,22,23,24によって俯瞰表示画像の繋ぎ目部分に対応する領域に障害物が存在することが検知された場合には、俯瞰表示画像の繋ぎ目部分となる位置を変化させるようにした」俯瞰画像表示システム及び俯瞰画像の表示方法が開示されている。   Patent Document 2 states that “a plurality of in-vehicle cameras 11, 12, 13, and 14 capture images around the vehicle, and a plurality of captured images captured by these in-vehicle cameras 11, 12, 13, and 14, respectively. By converting and connecting to a bird's-eye view image, the first to fourth sonars 21, 22, 23, and 24 are used to display the images as a continuous bird's-eye view image on the display device 40. An overhead image display system and a method for displaying an overhead image are disclosed in which, when it is detected that an obstacle exists in the corresponding area, the position of the joint portion of the overhead image is changed. .

特開2007−114829号公報JP 2007-114829 A 特開2007−41791号公報JP 2007-41791 A

しかしながら、更なる効率化を目的に、特許文献1に記載されている技術を実施しようとすると、以下の課題が生じる。すなわち、特許文献1に記載されている技術では、車両が通行している部分を撮影しているレーン監視カメラだけでは撮影範囲が狭いため、別途、料金所周囲の広域を撮影するためのカメラを数多く設置する必要がある。複数台のカメラ映像を配信する管制システムでは、システムのネットワーク回線の制限から、これらのカメラ映像を単純に縮小し、さらに、縮小した複数の映像で画面を複数分割した映像を用いて、監視が行われる。その場合、監視員が監視する映像は、料金所の各部が表示されているにすぎない。すなわち、各画面が、料金所のどこを映しているものなのかを監視員が把握しにくい。   However, when trying to implement the technique described in Patent Document 1 for the purpose of further efficiency, the following problems arise. That is, in the technique described in Patent Document 1, since the shooting range is narrow only with the lane monitoring camera that is shooting a portion where the vehicle is passing, a camera for shooting a wide area around the toll gate is separately provided. Many need to be installed. In a control system that distributes video from multiple cameras, monitoring can be performed using video that is simply reduced in size due to restrictions on the network line of the system, and further divided into multiple screens using the reduced video. Done. In that case, the video monitored by the supervisor only displays each part of the toll gate. That is, it is difficult for the monitoring staff to grasp where each screen shows the toll booth.

そのため、遠隔の管制室に配置された監視員は、配信された映像内で異常が発生し、その異常発生箇所の詳細位置を特定する場合、各料金所のカメラ配置図を予め記憶しておかなければならない。また、複数の料金所を監視する場合、一方的に配信されてくるカメラ映像を、常に注視しておく必要があり、監視員の管理業務の負担増加が課題となる。   For this reason, when an observer occurs in a remote control room and an abnormality occurs in the delivered video and the detailed location of the abnormality occurrence point is specified, the camera arrangement diagram of each toll gate must be stored in advance. There must be. In addition, when monitoring a plurality of toll gates, it is necessary to keep an eye on the camera video that is unilaterally distributed, which increases the burden of management work for the supervisor.

特許文献2の課題については実施形態中に記載する。   The problem of Patent Document 2 will be described in the embodiment.

このような背景に鑑みて本発明がなされたのであり、本発明は、道路施設の監視を効率的に行うことを課題とする。   The present invention has been made in view of such a background, and an object of the present invention is to efficiently monitor road facilities.

前記した課題を解決するため、本発明は、道路施設に備えられている複数の撮像部と、前記複数の撮像部それぞれで撮像された撮像映像から俯瞰映像を生成する俯瞰映像生成部と、前記俯瞰映像生成部で生成された前記俯瞰映像を合成することで合成俯瞰映像を生成する合成俯瞰映像生成部と、前記複数の撮像部で撮像された前記撮像映像から物体の異常状態を検出する異常検出処理部と前記異常状態が検出された前記物体を前記合成俯瞰映像中に強調表示する映像処理部と、を有することを特徴とする。   In order to solve the above-described problem, the present invention provides a plurality of imaging units provided in a road facility, an overhead image generation unit that generates an overhead image from captured images captured by each of the plurality of imaging units, A combined overhead image generation unit that generates a combined overhead image by combining the overhead image generated by the overhead image generation unit, and an abnormality that detects an abnormal state of the object from the captured images captured by the plurality of imaging units And a video processing unit that highlights the object in which the abnormal state has been detected in the synthesized overhead view video.

本発明によれば、道路施設の監視を効率的に行うことができる。   According to the present invention, it is possible to efficiently monitor road facilities.

第1実施形態で用いられる監視支援システムの全体構成例を示す図である。It is a figure which shows the example of whole structure of the monitoring assistance system used by 1st Embodiment. 第1実施形態で用いられるコンピュータの構成を示す図である。It is a figure which shows the structure of the computer used by 1st Embodiment. 第1実施形態で用いられる料金所におけるカメラの配置例を示した図である。It is the figure which showed the example of arrangement | positioning of the camera in the toll booth used in 1st Embodiment. 第1実施形態で用いられる監視支援システムの映像サーバが生成する表示用映像の例を示した図である。It is the figure which showed the example of the image | video for a display which the video server of the monitoring assistance system used by 1st Embodiment produces | generates. 第1実施形態で用いられる監視支援システムの管制室において、監視員が確認する画面例を示す図である。It is a figure which shows the example of a screen which a monitoring person confirms in the control room of the monitoring assistance system used by 1st Embodiment. 第1実施形態で用いられる俯瞰映像処理装置における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the bird's-eye view image processing apparatus used by 1st Embodiment. 第1実施形態で用いられる異常検出サーバにおける処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the abnormality detection server used by 1st Embodiment. 第1実施形態で用いられる映像サーバにおける処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the video server used by 1st Embodiment. 第2実施形態で用いられる監視支援システムの全体構成例を示す図である。It is a figure which shows the example of a whole structure of the monitoring assistance system used by 2nd Embodiment. 第2実施形態で用いられる合成俯瞰映像の例を示す図(その1)である。It is a figure (the 1) which shows the example of the synthetic | combination overhead view image | video used by 2nd Embodiment. 境界の移動を説明するための図(その1)である。It is FIG. (1) for demonstrating the movement of a boundary. 境界の移動を説明するための図(その2)である。It is FIG. (2) for demonstrating the movement of a boundary. 第2実施形態で用いられる合成俯瞰映像の例を示す図(その2)である。It is a figure (the 2) which shows the example of the synthetic | combination overhead view image | video used in 2nd Embodiment. 第2実施形態で用いられる俯瞰映像処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the bird's-eye view image processing apparatus used by 2nd Embodiment. 第2実施形態で用いられる異常検出サーバの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the abnormality detection server used by 2nd Embodiment. 第3実施形態で用いられる監視支援システムの全体構成例を示す構成図である。It is a block diagram which shows the example of whole structure of the monitoring assistance system used by 3rd Embodiment. 第3実施形態で用いられる異常検出サーバの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the abnormality detection server used by 3rd Embodiment. 第3実施形態で用いられる映像サーバの処理手順を支援すフローチャートである。It is a flowchart which supports the process sequence of the video server used by 3rd Embodiment. 第5実施形態で用いられる監視支援システムにおける表示用映像を示す図である。It is a figure which shows the image | video for a display in the monitoring assistance system used in 5th Embodiment.

以下、本発明を実施するための形態(以下においては「実施形態」と表記する)を、図面を参照して説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、重複する説明は、適宜、省略する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description will be omitted as appropriate.

≪第1実施形態≫
[監視支援システムZ]
図1は、第1実施形態で用いられる監視支援システムZの全体構成例を示す図である。
図1に示す例では、複数(図1の例では3つ)の料金所T(T1〜T3)を管制室Cで監視する形式を示している。
図1の例では、管制室Cが1つで、料金所Tが3つである場合を例示している。しかしながら、1つの管制室C、及び、3つ料金所Tには格別な意味はなく、管制室Cの数、及び、料金所Tの数は、図1の例に限らない。すなわち、管制室Cの数、及び、料金所Tの数は、それぞれ他の数となっても監視支援システムZの機能の観点は基本的に同一である。
<< First Embodiment >>
[Monitoring support system Z]
FIG. 1 is a diagram illustrating an example of the overall configuration of a monitoring support system Z used in the first embodiment.
In the example shown in FIG. 1, a form in which a plurality of (three in the example of FIG. 1) toll gates T (T1 to T3) are monitored in the control room C is shown.
In the example of FIG. 1, the case where there is one control room C and three toll booths T is illustrated. However, one control room C and three toll gates T have no special meaning, and the number of control rooms C and the number of toll gates T are not limited to the example in FIG. That is, the viewpoints of the functions of the monitoring support system Z are basically the same even if the number of control rooms C and the number of toll gates T are other numbers.

料金所Tには、複数台のカメラ(撮像部)4と、俯瞰映像処理装置1と、異常検出サーバ2と、映像サーバ3とが設置されている。   In the toll gate T, a plurality of cameras (imaging units) 4, an overhead video processing device 1, an abnormality detection server 2, and a video server 3 are installed.

複数台のカメラ4は、料金所Tにおいて必要な監視エリアに対して死角がなく、可能な限り各カメラ4の撮影範囲がオーバーラップするような配置で設置される。   The plurality of cameras 4 are installed in such a manner that there is no blind spot with respect to the necessary monitoring area at the toll booth T and the shooting ranges of the cameras 4 overlap as much as possible.

各カメラ4で撮影されたカメラ映像(撮像映像)は、俯瞰映像処理装置1に入力される。俯瞰映像処理装置1は、各カメラ4から入力されたカメラ映像を基に、俯瞰映像を生成する。なお、生成される俯瞰映像は、料金所Tの真上から見たような俯瞰映像に限定するものでなく、料金所Tの全体が一目でわかるようにすればよく、例えば、斜めから見たような鳥瞰映像でもよい。なお、俯瞰映像の生成は、射影変換等、公知の手法によって行われる。   Camera images (captured images) captured by each camera 4 are input to the overhead view image processing apparatus 1. The overhead video processing apparatus 1 generates an overhead video based on the camera video input from each camera 4. Note that the generated overhead view video is not limited to the overhead view as seen from directly above the toll booth T, but it is sufficient that the entire toll booth T can be seen at a glance. Such a bird's-eye view image may be used. Note that the overhead view video is generated by a known method such as projective transformation.

さらに、俯瞰映像処理装置1は、各カメラ映像から生成された俯瞰映像を合成し、1つの合成俯瞰映像とする。   Furthermore, the bird's-eye view video processing device 1 synthesizes the bird's-eye view video generated from the respective camera videos to form one synthesized bird's-eye view video.

また、カメラ4で撮影されたカメラ映像は、異常検出サーバ2に入力される。異常検出サーバ2は、画像認識技術を用いることで、入力された各カメラ映像から、移動物体や、異常状況の検出を行う。さらに、異常検出サーバ2は、検出された異常物体のカメラ映像内の位置を算出する処理を行う。異常検出される物体や事象は、例えば、料金所Tを通過前後の道路で停止している車両、道路上の落下物、車線上へ出入りしている人物、車線を逆走する車両等である。異常検出の具体的な手法については、検出する物体や事象によって最適な手法が用いられる。異常検出の手法として、背景差分法や、特徴量抽出によるパターンマッチング等様々な公知手法が用いられる。   In addition, the camera video captured by the camera 4 is input to the abnormality detection server 2. The abnormality detection server 2 detects a moving object and an abnormal situation from each input camera image by using an image recognition technique. Further, the abnormality detection server 2 performs a process of calculating the position of the detected abnormal object in the camera video. Objects and events that are detected abnormally are, for example, vehicles that have stopped on the road before and after passing through the toll gate T, fallen objects on the road, people entering and leaving the lane, vehicles that run backward in the lane, etc. . As a specific method of abnormality detection, an optimum method is used depending on the object or event to be detected. Various known methods such as a background subtraction method and pattern matching based on feature amount extraction are used as an anomaly detection method.

映像サーバ3は、異常検出サーバ2から送信された異常検出結果、及び、異常物体の位置情報等を基に、異常発生位置を強調する枠線等を俯瞰映像処理装置1から送信された合成俯瞰映像に重畳する。これにより、映像サーバ3は、強調表示した表示用映像を生成する。さらに、映像サーバ3は、ネットワーク5を介して、管制サーバ6への表示用映像の送信処理を行う。   Based on the abnormality detection result transmitted from the abnormality detection server 2, the position information of the abnormal object, and the like, the video server 3 displays a frame and the like for emphasizing the abnormality occurrence position, and the combined overhead transmitted from the overhead video processing apparatus 1. Superimpose on video. Thereby, the video server 3 generates the highlighted display video. Further, the video server 3 performs display video transmission processing to the control server 6 via the network 5.

各料金所Tの映像サーバ3は、ネットワーク5を介して管制室Cの管制サーバ6に接続されている。
管制サーバ6は、各料金所Tの映像サーバ3から送信された表示用映像を管制室6に設置されているモニタ(表示部)61に表示する。図1の例では、各料金所Tに対応するようモニタ61が設置されている。
The video server 3 at each toll gate T is connected to the control server 6 in the control room C via the network 5.
The control server 6 displays the display video transmitted from the video server 3 of each toll gate T on a monitor (display unit) 61 installed in the control room 6. In the example of FIG. 1, a monitor 61 is installed to correspond to each toll booth T.

次に、俯瞰映像処理装置1、異常検出サーバ2、映像サーバ3の詳細について説明する。   Next, details of the overhead video processing apparatus 1, the abnormality detection server 2, and the video server 3 will be described.

(俯瞰映像処理装置1)
俯瞰映像処理装置1は、情報受信部11、俯瞰映像生成部12、合成俯瞰映像生成部13、情報送信部14を有している。
情報受信部11は、他の機器(カメラ4等)から情報(カメラ映像等)を受信する。
俯瞰映像生成部12は、受信した各カメラ映像から俯瞰映像を生成する。
合成俯瞰映像生成部13は、俯瞰映像生成部12で生成された各俯瞰映像を接続することで、1つの合成俯瞰映像を生成する。
情報送信部14は、他の機器(映像サーバ3等)へ情報(合成俯瞰映像等)を送信する。
(Overhead video processing device 1)
The overhead video processing apparatus 1 includes an information receiving unit 11, an overhead video generation unit 12, a combined overhead video generation unit 13, and an information transmission unit 14.
The information receiving unit 11 receives information (camera images and the like) from other devices (camera 4 and the like).
The overhead view video generation unit 12 generates an overhead view video from each received camera video.
The synthesized bird's-eye view video generation unit 13 connects each bird's-eye view video generated by the bird's-eye view video generation unit 12 to generate one synthesized bird's-eye view video.
The information transmission unit 14 transmits information (such as a composite overhead image) to another device (such as the video server 3).

(異常検出サーバ2)
異常検出サーバ2は、情報受信部21、異常検出処理部22、情報送信部23を有している。
情報受信部21は、他の機器(カメラ4等)から情報(カメラ映像等)を受信する。
異常検出処理部22は、前記した画像認識処理を用いて、各カメラ映像から異常を検出し、さらに異常物体の位置情報等を含む異常情報をカメラ映像から抽出する。
情報送信部23は、他の機器(映像サーバ3等)へ情報(異常情報等)を送信する。
(Abnormality detection server 2)
The abnormality detection server 2 includes an information reception unit 21, an abnormality detection processing unit 22, and an information transmission unit 23.
The information receiving unit 21 receives information (camera video and the like) from other devices (camera 4 and the like).
The anomaly detection processing unit 22 detects an anomaly from each camera video using the above-described image recognition process, and further extracts anomaly information including the position information of the abnormal object from the camera video.
The information transmission unit 23 transmits information (abnormal information or the like) to another device (video server 3 or the like).

(映像サーバ3)
映像サーバ3は、情報受信部31、判定処理部32、映像処理部33、情報送信部34を有している。
情報受信部31は、他の機器(俯瞰映像処理装置1、異常検出サーバ2等)から情報(合成俯瞰映像、異常情報等)を受信する。
判定処理部32は、各種判定を行う。
映像処理部33は、異常情報を基に、合成俯瞰映像上に異常物体を強調表示した表示用映像を生成する。
情報送信部34は、他の機器(管制サーバ6等)へ情報(表示用映像等)を送信する。
(Video server 3)
The video server 3 includes an information receiving unit 31, a determination processing unit 32, a video processing unit 33, and an information transmission unit 34.
The information receiving unit 31 receives information (composite overhead image, abnormality information, etc.) from other devices (overhead image processing device 1, abnormality detection server 2, etc.).
The determination processing unit 32 performs various determinations.
The video processing unit 33 generates a display video in which an abnormal object is highlighted on the synthesized overhead video based on the abnormal information.
The information transmission unit 34 transmits information (display video or the like) to another device (control server 6 or the like).

[ハードウェア構成]
図2は、第1実施形態で用いられるコンピュータ100の構成を示す図である。
コンピュータ100は、図1の俯瞰映像処理装置1、異常検出サーバ2、映像サーバ3に相当する。
コンピュータ100は、メモリ101、CPU(Central Processing Unit)102、HD(Hard Disk)等の記憶装置103、通信装置104等を有している。
通信装置104は、他の機器との通信を行う装置である。
図1の俯瞰映像処理装置1、異常検出サーバ2、映像サーバ3における各部11〜14,21〜23,31〜34は、各装置1〜3において、記憶装置103に格納されているプログラムが、メモリ101にロードされ、ロードされたプログラムがCPU102によって実行されることにより具現化する。
なお、第2実施形態、第3実施形態における俯瞰映像処理装置1、異常検出サーバ2、映像サーバ3も同様である。
[Hardware configuration]
FIG. 2 is a diagram illustrating a configuration of the computer 100 used in the first embodiment.
The computer 100 corresponds to the overhead video processing device 1, the abnormality detection server 2, and the video server 3 of FIG.
The computer 100 includes a memory 101, a CPU (Central Processing Unit) 102, a storage device 103 such as an HD (Hard Disk), a communication device 104, and the like.
The communication device 104 is a device that communicates with other devices.
The units 11 to 14, 21 to 23, and 31 to 34 in the overhead view video processing device 1, the abnormality detection server 2, and the video server 3 in FIG. 1 are the programs stored in the storage device 103 in each of the devices 1 to 3. The program is implemented by being loaded into the memory 101 and executed by the CPU 102.
The same applies to the overhead video processing apparatus 1, the abnormality detection server 2, and the video server 3 in the second and third embodiments.

(カメラ配置)
図3は、第1実施形態で用いられる料金所Tにおけるカメラ4の配置例を示した図である。
図3では、2つの入口レーン、2つの出口レーンの計4レーンを有する料金所Tの例を示す。図3に示すように、照明柱PA〜PD(P)に、カメラ4A〜4D(4)が4台設置されている。また、屋根下に、カメラ4E〜4H(4)が4台設置されている。すなわち、図3の例では、合計8台のカメラ4が設置されている。図3では、照明柱P、及び、料金所Tの屋根下へカメラ4を設置する構成を示しているが、設置場所は、これらに限らない。例えば、カメラ4の専用柱が設置されてもよいし、料金所Tの屋根上にカメラ4が設置されてもよい。
(Camera placement)
FIG. 3 is a diagram illustrating an arrangement example of the cameras 4 at the toll gate T used in the first embodiment.
FIG. 3 shows an example of a toll gate T having a total of four lanes, two entrance lanes and two exit lanes. As shown in FIG. 3, four cameras 4 </ b> A to 4 </ b> D (4) are installed on the illumination columns PA to PD (P). Moreover, four cameras 4E-4H (4) are installed under the roof. That is, in the example of FIG. 3, a total of eight cameras 4 are installed. Although FIG. 3 shows a configuration in which the camera 4 is installed under the roof of the lighting column P and the toll gate T, the installation location is not limited to these. For example, a dedicated pillar of the camera 4 may be installed, or the camera 4 may be installed on the roof of the toll gate T.

(表示用映像例)
図4は、第1実施形態で用いられる監視支援システムZの映像サーバ3が生成する表示用映像201の例を示した図である。
表示用映像201は、図3に示す料金所Tの映像である。
図4には、図3の配置例で配置された8台のカメラ4A〜4H(4)のカメラ映像から生成された表示用映像201の例が示されている。ここで、表示用映像201は、8つの俯瞰映像200A〜200H(200)が接続されることによって生成される合成俯瞰映像251に異常物体を強調表示するための破線の枠線Mが表示されているものである。俯瞰映像200A〜200Hのそれぞれは、図3における各カメラ4A〜4Hで撮影されたカメラ映像を基に生成されるものである。
(Example of display video)
FIG. 4 is a diagram illustrating an example of the display video 201 generated by the video server 3 of the monitoring support system Z used in the first embodiment.
The display video 201 is a video of the toll gate T shown in FIG.
FIG. 4 shows an example of a display image 201 generated from the camera images of the eight cameras 4A to 4H (4) arranged in the arrangement example of FIG. Here, in the display video 201, a broken-line frame M for highlighting an abnormal object is displayed on the composite overhead video 251 generated by connecting the eight overhead videos 200A to 200H (200). It is what. Each of the bird's-eye view images 200A to 200H is generated based on the camera images captured by the cameras 4A to 4H in FIG.

ここで、合成俯瞰映像251は枠線Mが表示されていないものである。そして、表示用映像201は合成俯瞰映像251に枠線Mが表示されているものである。すなわち、合成俯瞰映像251と、表示用映像201の違いは枠線Mの有無である。   Here, the synthesized bird's-eye view image 251 is one in which the frame line M is not displayed. The display video 201 is obtained by displaying the frame line M on the synthesized overhead video 251. That is, the difference between the synthesized overhead view image 251 and the display image 201 is the presence or absence of the frame line M.

枠線Mは、異常検出サーバ2内の異常検出処理部22(図1参照)において検出した異常状態が発生している箇所を示す。図4に示す表示用映像201の例では、料金所Tの出口通過後の停止禁止区域において停止している車両が異常として検出されている例を示している。   A frame line M indicates a portion where the abnormal state detected in the abnormality detection processing unit 22 (see FIG. 1) in the abnormality detection server 2 has occurred. In the example of the display video 201 shown in FIG. 4, an example is shown in which a vehicle stopped in the stop prohibited area after passing through the exit of the toll gate T is detected as abnormal.

(管制室Cにおける映像)
図5は、第1実施形態で用いられる監視支援システムZの管制室Cにおいて、監視員が確認する画面例を示す図である。
ここでは、3つの料金所T1〜T3(図1参照)が管制室C(図1参照)において監視されている例を示す。
管制室Cには3つのモニタ61a〜61c(61)が設置されている。各々のモニタ61a〜61cには、各料金所T1〜T3の表示用映像201a〜201c(201)が表示されている。表示用映像201a〜201cは、それぞれ料金所T1〜T3の表示用映像201に相当する。
(Video in control room C)
FIG. 5 is a diagram illustrating an example of a screen that a supervisor checks in the control room C of the monitoring support system Z used in the first embodiment.
Here, an example is shown in which three toll gates T1 to T3 (see FIG. 1) are monitored in the control room C (see FIG. 1).
In the control room C, three monitors 61a to 61c (61) are installed. Display images 201a to 201c (201) of the toll gates T1 to T3 are displayed on the respective monitors 61a to 61c. The display videos 201a to 201c correspond to the display videos 201 of the toll gates T1 to T3, respectively.

例えば、料金所T1において、ある異常が検出された場合、モニタ61aに表示されている表示用映像201aに、異常発生場所を強調する枠線Mが出現する。この枠線Mが出現することにより、監視員は瞬時に料金所T1で異常が発生したことを認識できる。   For example, when a certain abnormality is detected at the toll gate T1, a frame line M that highlights the abnormality occurrence location appears in the display video 201a displayed on the monitor 61a. By the appearance of the frame line M, the monitor can instantly recognize that an abnormality has occurred at the toll booth T1.

また、各表示用映像201a〜201cは、各料金所Tにおける監視範囲の俯瞰映像であるため、監視員は異常発生のみならず、どの料金所Tのどこで異常が発生しているかも迅速、かつ、容易に把握することが可能となる。
このように、第1実施形態によれば、監視員は、料金所Tにおける異常発生、及び、発生位置を、迅速、かつ、容易に把握することができる。従って、第1実施形態によれば、料金所Tにおける異常発生後の必要な作業への移行時間短縮等、監視業務の負荷軽減及び、効率化が可能となる。
Further, since each of the display images 201a to 201c is a bird's-eye view of the monitoring range at each toll booth T, the monitor can quickly determine not only where the abnormality has occurred but also at which toll booth T where the abnormality has occurred, Can be easily grasped.
As described above, according to the first embodiment, the monitor can quickly and easily grasp the abnormality occurrence and the occurrence position at the toll gate T. Therefore, according to the first embodiment, it is possible to reduce the load and increase the efficiency of monitoring work, such as shortening the transition time to necessary work after occurrence of an abnormality at the toll booth T.

なお、図5に示す例では、管制室Cに料金所Tの数のモニタ61(61a〜61c)が設置されている構成となっているが、モニタ61の数は限定されるものではない。例えば、1台のモニタ61に複数の料金所Tに相当する表示用映像201が分割して表示されてもよいし、1台のモニタ61において、各料金所Tの表示用映像201が時分割表示されてもよい。時分割表示とは、各料金所Tの表示用映像201が代わる代わる表示されることである。   In the example shown in FIG. 5, the number of monitors 61 (61a to 61c) corresponding to the number of toll booths T is installed in the control room C, but the number of monitors 61 is not limited. For example, the display video 201 corresponding to a plurality of toll booths T may be divided and displayed on one monitor 61, or the display video 201 of each toll booth T on one monitor 61 is time-shared. May be displayed. The time division display is a display in which the display video 201 of each toll booth T is replaced.

[フローチャート]
以下、俯瞰映像処理装置1、異常検出サーバ2、映像サーバ3で行われる処理を説明する。各フローチャートの説明では、図1を適宜参照する。
(俯瞰映像処理装置1)
図6は、第1実施形態で用いられる俯瞰映像処理装置1における処理手順を示すフローチャートである。
まず、情報受信部11が各カメラ4からカメラ映像を取得する(S101)。
次に、俯瞰映像生成部12は、各カメラ4から取得した各カメラ映像から、射影変換等といった公知の技術を用いて俯瞰映像を生成する(S102)。
そして、合成俯瞰映像生成部13は、ステップS102で生成された各俯瞰映像を合成して、1つの合成俯瞰映像を生成する(S103)。
その後、情報送信部14は、生成した合成俯瞰映像を映像サーバ3へ送信する(S104)。
その後、俯瞰映像処理装置1はステップS101へ処理を戻す。
[flowchart]
Hereinafter, processing performed in the overhead video processing apparatus 1, the abnormality detection server 2, and the video server 3 will be described. In the description of each flowchart, FIG. 1 is referred to as appropriate.
(Overhead video processing device 1)
FIG. 6 is a flowchart showing a processing procedure in the overhead video processing apparatus 1 used in the first embodiment.
First, the information receiving unit 11 acquires a camera video from each camera 4 (S101).
Next, the bird's-eye view image generation unit 12 generates a bird's-eye view image from each camera image acquired from each camera 4 using a known technique such as projective transformation (S102).
And the synthetic | combination bird's-eye video production | generation part 13 synthesize | combines each bird's-eye view video produced | generated by step S102, and produces | generates one synthetic | combination bird's-eye video (S103).
Thereafter, the information transmission unit 14 transmits the generated synthesized overhead video to the video server 3 (S104).
Thereafter, the overhead image processing apparatus 1 returns the process to step S101.

(異常検出サーバ2)
図7は、第1実施形態で用いられる異常検出サーバ2における処理手順を示すフローチャートである。
まず、情報受信部21は、各カメラ4からカメラ映像を取得する(S201)。
そして、異常検出処理部22は、カメラ映像中に異常を検出したか否かを判定する(S202)。異常とは、カメラ映像のフレーム間差分を基に所定範囲外の速度で走っている物体があるか否か、逆方向に走行している物体があるか否か、大きさが所定の大きさより小さい移動物体(人等)があるか否かである。
(Abnormality detection server 2)
FIG. 7 is a flowchart showing a processing procedure in the abnormality detection server 2 used in the first embodiment.
First, the information receiving unit 21 acquires a camera video from each camera 4 (S201).
Then, the abnormality detection processing unit 22 determines whether an abnormality has been detected in the camera video (S202). Abnormal is whether there is an object running at a speed outside the predetermined range based on the difference between frames of the camera image, whether there is an object running in the reverse direction, the size is larger than the predetermined size Whether there is a small moving object (such as a person).

ステップS202の結果、異常を検出しない場合(S202→No)、異常検出サーバ2はステップS201へ処理を戻す。
ステップS202の結果、異常を検出した場合(S202→Yes)、異常検出処理部22は異常を検出したカメラ映像から異常情報を抽出する(S203)。異常情報とは、異常を検出したカメラ4のカメラ番号、異常を検出した映像範囲の座標情報等である。
その後、情報送信部23は抽出した異常情報を映像サーバ3へ送信し(S204)、異常検出サーバ2はステップS201へ処理を戻す。
When no abnormality is detected as a result of step S202 (S202 → No), the abnormality detection server 2 returns the process to step S201.
If an abnormality is detected as a result of step S202 (S202 → Yes), the abnormality detection processing unit 22 extracts abnormality information from the camera video in which the abnormality is detected (S203). The abnormality information is the camera number of the camera 4 that detected the abnormality, the coordinate information of the video range in which the abnormality was detected, and the like.
Thereafter, the information transmission unit 23 transmits the extracted abnormality information to the video server 3 (S204), and the abnormality detection server 2 returns the process to step S201.

(映像サーバ3)
図8は、第1実施形態で用いられる映像サーバ3における処理手順を示すフローチャートである。
まず、映像サーバ3の情報受信部31が、俯瞰映像処理装置1から合成俯瞰映像を受信する(S301)。
そして、判定処理部32は、異常検出サーバ2から異常情報を受信したか否かを判定する(S302)。
ステップS302の結果、異常情報を受信した場合(S302→Yes)、映像処理部33は、異常を検出された物体(異常物体)の合成俯瞰映像上の位置を算出する(S303)。すなわち、映像処理部33は、異常情報に含まれるカメラ番号や、異常検出した映像範囲の座標情報を基に、異常を検出された物体が合成俯瞰映像のどこに相当するか(合成俯瞰映像上の位置)を算出する。
そして、映像処理部33は、ステップS303で算出した映像範囲を強調表示した表示用映像を生成する(S304)。
(Video server 3)
FIG. 8 is a flowchart showing a processing procedure in the video server 3 used in the first embodiment.
First, the information receiving unit 31 of the video server 3 receives the composite overhead video from the overhead video processing device 1 (S301).
And the determination process part 32 determines whether abnormality information was received from the abnormality detection server 2 (S302).
If the abnormality information is received as a result of step S302 (S302 → Yes), the video processing unit 33 calculates the position of the object (abnormal object) in which the abnormality is detected on the combined overhead image (S303). That is, the video processing unit 33 determines where in the composite overhead view video the object from which an abnormality has been detected corresponds based on the camera number included in the abnormality information and the coordinate information of the video range in which the abnormality has been detected (on the composite overhead video). Position).
Then, the video processing unit 33 generates a display video in which the video range calculated in step S303 is highlighted (S304).

一方、ステップS302の結果、異常情報を受信していない場合(S302→No)、映像処理部33は合成俯瞰映像をそのまま表示用映像とすることで表示用映像を生成する(S305)。
そして、情報送信部34が表示用映像を管制サーバ6へ送信し、映像サーバ3はステップS301へ処理を戻す。
On the other hand, when the abnormality information is not received as a result of step S302 (S302 → No), the video processing unit 33 generates the display video by using the synthesized overhead video as it is as the display video (S305).
Then, the information transmitting unit 34 transmits the display video to the control server 6, and the video server 3 returns the process to step S301.

管制サーバ6は、モニタ61に送信された表示用映像を表示する。   The control server 6 displays the display video transmitted to the monitor 61.

これまでの監視支援システムは、カメラ映像が単に表示されているだけであるため、写っている映像が料金所Tのどの部分なのかを把握することが難しい。このため、異常発生が料金所Tのどこで発生しているのかを、監視員が特定することが困難である。
第1実施形態の監視支援システムZでは、図6に示すように、料金所Tのすべてを上方から俯瞰した映像で監視を行うことができるため、異常発生が料金所Tのどこで発生しているのかを容易に把握することができる。
In conventional monitoring support systems, since the camera video is simply displayed, it is difficult to grasp which part of the toll booth T the captured video is. For this reason, it is difficult for the supervisor to specify where the occurrence of the abnormality occurs at the toll gate T.
In the monitoring support system Z of the first embodiment, as shown in FIG. 6, since all of the toll booth T can be monitored with an image seen from above, an abnormality occurs at the toll booth T. Can be easily grasped.

また、合成俯瞰映像に異常発生物体を枠線M(図4参照)等の強調表示することにより、異常発生が料金所Tのどこで発生しているのかを容易に把握することができる。
このようにすることで、料金所T(道路施設)の監視を効率的に行うことができる。
すなわち、第1実施形態の監視支援システムZによれば、監視員が、料金所Tにおける異常発生や、異常の発生位置が、正確、かつ、容易に把握できる。従って、第1実施形態の監視支援システムZを用いることによって、その後の必要な作業への移行時間短縮等、監視業務の負荷軽減、効率化が可能となる。
In addition, it is possible to easily grasp where the abnormality has occurred at the toll booth T by highlighting the abnormality-occurring object such as the frame line M (see FIG. 4) on the synthesized overhead view video.
By doing in this way, the toll gate T (road facility) can be monitored efficiently.
That is, according to the monitoring support system Z of the first embodiment, the monitor can accurately and easily grasp the occurrence of an abnormality at the toll booth T and the occurrence position of the abnormality. Therefore, by using the monitoring support system Z of the first embodiment, it is possible to reduce the load and increase the efficiency of the monitoring work, such as shortening the transition time to the necessary work after that.

さらに、料金所Tに監視支援システムZを適用することで、料金所Tにおける監視の効率性を向上させることができる。   Furthermore, by applying the monitoring support system Z to the toll gate T, the monitoring efficiency at the toll gate T can be improved.

≪第2実施形態≫
次に、本発明の第2実施形態として、図9に示すように、俯瞰映像処理装置1aと、異常検出サーバ2aとに、俯瞰映像内の各カメラ映像における表示範囲の境界(境界部)を調整する機能を追加した監視支援システムZaについて説明する。
<< Second Embodiment >>
Next, as a second embodiment of the present invention, as shown in FIG. 9, a boundary (boundary part) of a display range in each camera video in the overhead view video is provided to the overhead view video processing device 1a and the abnormality detection server 2a. A monitoring support system Za to which a function to be adjusted is added will be described.

[監視支援システムZa]
図9は、第2実施形態で用いられる監視支援システムZaの全体構成例を示す図である。なお、図9において、図1と同様の構成については同一の符号を付して説明を省略する。
第2実施形態に示す監視支援システムZaの料金所Ta(T1a〜T3a)では、異常物体が俯瞰映像における境界部分にある場合、異常検出サーバ2aで抽出された異常情報が俯瞰映像処理装置1aへ送信されている。
そして、俯瞰映像処理装置1aは、入力された異常情報を基に俯瞰映像を生成する際の境界を移動させることで境界の調整を行う。境界の移動については後記する。
次に、第2実施形態における俯瞰映像処理装置1a及び異常検出サーバ2aについて、図1に示す構成と異なる部分について説明する。映像サーバ3の構成は図1に示すものと同様である。
[Monitoring support system Za]
FIG. 9 is a diagram illustrating an example of the overall configuration of the monitoring support system Za used in the second embodiment. In FIG. 9, the same components as those in FIG.
In the toll booth Ta (T1a to T3a) of the monitoring support system Za shown in the second embodiment, when the abnormal object is at the boundary portion in the overhead image, the abnormality information extracted by the abnormality detection server 2a is sent to the overhead image processing device 1a. Has been sent.
Then, the overhead image processing apparatus 1a adjusts the boundary by moving the boundary when generating the overhead image based on the input abnormality information. The movement of the boundary will be described later.
Next, portions of the overhead image processing device 1a and the abnormality detection server 2a according to the second embodiment that are different from the configuration shown in FIG. 1 will be described. The configuration of the video server 3 is the same as that shown in FIG.

(俯瞰映像処理装置1a)
俯瞰映像処理装置1aは、判定処理部15及び境界調整部16を有している点が、図1に示す俯瞰映像処理装置1と異なっている。
判定処理部15は、各種の判定を行う。
境界調整部16は、異常検出サーバ2aから送信された異常情報を基に俯瞰映像を生成する際の境界を移動させることで境界の調整を行う。境界の移動については後記する。
(Overhead video processing apparatus 1a)
The overhead video processing apparatus 1a is different from the overhead video processing apparatus 1 shown in FIG. 1 in that it includes a determination processing unit 15 and a boundary adjustment unit 16.
The determination processing unit 15 performs various determinations.
The boundary adjustment unit 16 adjusts the boundary by moving the boundary at the time of generating the overhead view video based on the abnormality information transmitted from the abnormality detection server 2a. The movement of the boundary will be described later.

(異常検出サーバ2a)
異常検出サーバ2aは、判定処理部24を有している点が、図1に示す異常検出サーバ2と異なっている。
判定処理部24は、各種の判定を行う。
また、異常検出処理部22は、検出した移動物体が俯瞰映像を生成する際の境界上にあるか否かを判定等する。
(Abnormality detection server 2a)
The abnormality detection server 2a is different from the abnormality detection server 2 shown in FIG.
The determination processing unit 24 performs various determinations.
Further, the abnormality detection processing unit 22 determines whether or not the detected moving object is on the boundary when the overhead view video is generated.

[合成俯瞰映像251の例]
図10〜図13を参照して、第2実施形態で用いられる合成俯瞰映像251について説明する。なお、図10及び図13において、図4と同様、俯瞰映像200A〜200Hは、図3のカメラ4A〜4Hで撮影されるカメラ映像を基に生成されるものである。
図10で示す合成俯瞰映像251a(251)は、第2実施形態で用いられる処理が行われていない状態である。図10では、俯瞰映像200Aと俯瞰映像200Bの境界位置202において、車両203が異常停止している例を示している。この車両203は、センターライン上で停止しているため異常物体として検出されたものである。
[Example of composite overhead image 251]
With reference to FIGS. 10-13, the synthetic | combination overhead view image 251 used in 2nd Embodiment is demonstrated. 10 and 13, similar to FIG. 4, the overhead view images 200 </ b> A to 200 </ b> H are generated based on camera images taken by the cameras 4 </ b> A to 4 </ b> H of FIG. 3.
The synthesized bird's-eye view image 251a (251) shown in FIG. 10 is in a state where the processing used in the second embodiment is not performed. FIG. 10 illustrates an example in which the vehicle 203 is abnormally stopped at the boundary position 202 between the overhead view video 200A and the overhead view video 200B. The vehicle 203 is detected as an abnormal object because it is stopped on the center line.

第1実施形態に示す処理では、図10の合成俯瞰映像251aのように、境界位置202の物体の高さ方向情報が欠落するという欠点がある。このため、一見すると歪な形状の車両が停止しているように見える。車両203のように、歪な形状で物体が表示されると監視者が違和感を覚えてしまうため好ましくない。
なお、境界202aについては後記する。
In the processing shown in the first embodiment, there is a defect that the height direction information of the object at the boundary position 202 is lost as in the synthesized overhead view image 251a of FIG. For this reason, at first glance, it appears that the distorted vehicle is stopped. If the object is displayed in a distorted shape as in the vehicle 203, the observer will feel uncomfortable.
The boundary 202a will be described later.

このことを、図11及び図12を参照して説明する。適宜、図10を参照する。
図11に示す映像B1は、図3のカメラ4Bによって撮影されたカメラ映像の模式例であり、図12に示す映像B2は、図3のカメラ4Aによって撮影されたカメラ映像の模式例である。なお、図11及び図12に示す映像B1,B2では、図を簡単にするため、車両の真横が写っているものとしているが、実際には車両を斜め上から写した映像となっている。
This will be described with reference to FIG. 11 and FIG. Reference is made to FIG. 10 as appropriate.
An image B1 shown in FIG. 11 is a schematic example of a camera image taken by the camera 4B of FIG. 3, and an image B2 shown in FIG. 12 is a schematic example of a camera image taken by the camera 4A of FIG. 11 and 12, for the sake of simplicity, it is assumed that the side of the vehicle is reflected, but in reality, the images are images of the vehicle taken from diagonally above.

境界が移動されない場合(第1実施形態の手法)、俯瞰映像生成部12は、境界L11,L12で映像B1及び映像B2をそれぞれ切った映像(ドットで示す部分)を合わせることで合成俯瞰映像251aを生成する。そのため、合成俯瞰映像251aでは、図10の符号203のように車両(物体)の所定部分が切れた映像となってしまう。このため、図10の車両203のように歪な形状で物体が表示されてしまう。   When the boundary is not moved (the method of the first embodiment), the overhead image generation unit 12 combines the images (parts indicated by dots) obtained by cutting the images B1 and B2 at the boundaries L11 and L12, thereby combining the overhead images 251a. Is generated. Therefore, the synthesized bird's-eye view image 251a is an image in which a predetermined portion of the vehicle (object) is cut as indicated by reference numeral 203 in FIG. For this reason, the object is displayed in a distorted shape like the vehicle 203 in FIG.

そこで、第2実施形態では、俯瞰映像生成部12が、映像B2の境界L12を境界L22へ移動する。すなわち、俯瞰映像生成部12は、異常物体の全体が入るよう境界L12を境界L22へ移動する。そして、この移動に伴い、俯瞰映像生成部12は、映像B1の境界L11を境界L21へ移動する。そして、俯瞰映像生成部12は、境界の移動に伴って生成される、図11及び図12における斜線部分の映像を基に俯瞰映像を生成し、さらに合成俯瞰映像251を生成する。このようにすることで、車両の映像が切れることなく、俯瞰映像200を接続して合成俯瞰映像251を生成することができる。   Therefore, in the second embodiment, the overhead video generation unit 12 moves the boundary L12 of the video B2 to the boundary L22. That is, the bird's-eye view image generation unit 12 moves the boundary L12 to the boundary L22 so that the entire abnormal object enters. And with this movement, the overhead view video generation unit 12 moves the boundary L11 of the video B1 to the boundary L21. Then, the bird's-eye view image generation unit 12 generates a bird's-eye view image based on the hatched portion images in FIGS. 11 and 12 generated along with the movement of the boundary, and further generates a composite bird's-eye view image 251. By doing in this way, the synthetic | combination bird's-eye view image 251 can be produced | generated by connecting the bird's-eye view image 200, without cut | disconnecting the image | video of a vehicle.

このような境界が移動された俯瞰映像を用いて生成された合成俯瞰映像251bを図13に示す。
図13の合成俯瞰映像251bでは、俯瞰映像200A及び俯瞰映像200Bの境界202が紙面上方向に移動している。境界の移動は、後記するように異常検出サーバ2から送信される異常情報を基に行われる。つまり、図12の映像B2の境界L12を境界L22へ移動し、図11の映像B1の境界L11を境界L21へ移動する処理と同様に、境界202を移動する。このようにすることで、図11及び図12に示すように、車両(物体)の映像が切れることなく俯瞰映像200が接続される。
このようにすることで、符号203aに示すように、物体(車両)の形状の歪みを低くして表示することができる。
なお、境界202は、紙面上方だけでなく、紙面下方に移動してもよい。あるいは、図10の俯瞰映像200E,200Fと、俯瞰映像200Cの境界202aが図10の紙面左右方向に移動することも可能である。
FIG. 13 shows a composite bird's-eye view image 251b generated using the bird's-eye view image whose boundary has been moved.
In the synthesized bird's-eye view image 251b in FIG. 13, the boundary 202 between the bird's-eye view image 200A and the bird's-eye view image 200B moves in the upward direction on the paper. The movement of the boundary is performed based on the abnormality information transmitted from the abnormality detection server 2 as described later. That is, the boundary 202 is moved similarly to the process of moving the boundary L12 of the video B2 in FIG. 12 to the boundary L22 and moving the boundary L11 of the video B1 in FIG. 11 to the boundary L21. By doing in this way, as shown in FIG.11 and FIG.12, the bird's-eye view image | video 200 is connected, without the image | video of a vehicle (object) cutting out.
By doing in this way, as shown to the code | symbol 203a, the distortion of the shape of an object (vehicle) can be made low and displayed.
Note that the boundary 202 may move not only above the page but also below the page. Alternatively, the boundary 202a between the bird's-eye view images 200E and 200F and the bird's-eye view image 200C in FIG. 10 can also move in the left-right direction in FIG.

[フローチャート]
以下、俯瞰映像処理装置1a、異常検出サーバ2aで行われる処理を説明する。各フローチャートの説明では、図9を適宜参照する。
(俯瞰映像処理装置1a)
図14は、第2実施形態で用いられる俯瞰映像処理装置1aの処理手順を示すフローチャートである。
なお、図14において、図6と同様の処理については同一のステップ番号を付して説明を省略する。
[flowchart]
Hereinafter, processing performed by the overhead image processing apparatus 1a and the abnormality detection server 2a will be described. In the description of each flowchart, FIG. 9 is appropriately referred to.
(Overhead video processing apparatus 1a)
FIG. 14 is a flowchart showing a processing procedure of the overhead image processing apparatus 1a used in the second embodiment.
In FIG. 14, the same processes as those in FIG. 6 are denoted by the same step numbers and the description thereof is omitted.

ステップS101におけるカメラ映像の取得後、判定処理部15は異常検出サーバ2aから境界移動情報を受信したか否かを判定する(S111)。境界移動情報は、異常検出サーバ2aは、カメラ映像の境界部分において異常を検出すると、抽出した異常情報を基に、カメラ映像における境界の移動方向・距離を境界移動情報として俯瞰映像処理装置1aへ送信する。この処理については、図15で後記する。
ステップS111の結果、境界移動情報を受信していない場合(S111→No)、俯瞰映像処理装置1aはステップS102へ処理を進める。
After acquiring the camera image in step S101, the determination processing unit 15 determines whether or not boundary movement information has been received from the abnormality detection server 2a (S111). When the anomaly detection server 2a detects an anomaly at the boundary portion of the camera image, the boundary movement information is sent to the overhead image processing apparatus 1a based on the extracted anomaly information, using the boundary moving direction / distance in the camera image as the boundary movement information. Send. This process will be described later with reference to FIG.
As a result of step S111, when the boundary movement information is not received (S111 → No), the overhead image processing apparatus 1a advances the process to step S102.

ステップS111の結果、境界移動情報を受信している場合(S111→Yes)、俯瞰映像生成部12は、境界移動情報に従って、境界移動対象のカメラ映像の境界を移動させる(S112)。   When the boundary movement information is received as a result of step S111 (S111 → Yes), the overhead view video generation unit 12 moves the boundary of the camera image to be moved according to the boundary movement information (S112).

そして、俯瞰映像生成部12は境界を移動させたカメラ映像を含む各カメラ映像から俯瞰映像を生成する(S102)。以降の処理は図6のステップS103,S104と同じである。   Then, the bird's-eye view image generation unit 12 generates a bird's-eye view image from each camera image including the camera image whose boundary is moved (S102). The subsequent processing is the same as steps S103 and S104 in FIG.

(異常検出サーバ2a)
図15は、第2実施形態で用いられる異常検出サーバ2aの処理手順を示すフローチャートである。
なお、図15において、図7と同様の処理については同一のステップ番号を付して説明を省略する。
ステップS203で異常情報を抽出した後、異常検出処理部22は異常を検出した映像範囲が、カメラ映像の境界上にあるか否かを判定する(S211)。なお、異常検出サーバ2aは、カメラ映像のどこが境界となるかを俯瞰映像処理装置1と共有している。
ステップS211の結果、異常を検出した映像範囲が、境界にない場合(S211→No)、異常検出サーバ2aは、ステップS203及びステップS204の処理を行う。
ステップS211の結果、異常を検出した映像範囲が、境界にある場合(S211→Yes)、異常検出処理部22は、カメラ映像における異常範囲の面積(サイズ)を、異常を検出しているカメラ映像毎に算出する(S212)。
そして、異常検出処理部22は、異常を検出しているカメラ映像のうち、どのカメラ映像における異常範囲が最も大きいかを特定する(S213)。ここで特定されるカメラ映像は、図12の映像B2に相当するものである。
(Abnormality detection server 2a)
FIG. 15 is a flowchart showing a processing procedure of the abnormality detection server 2a used in the second embodiment.
In FIG. 15, the same steps as those in FIG.
After extracting the abnormality information in step S203, the abnormality detection processing unit 22 determines whether or not the video range in which the abnormality is detected is on the boundary of the camera video (S211). The anomaly detection server 2a shares with the overhead video processing apparatus 1 where in the camera video is the boundary.
As a result of step S211, when the video range where the abnormality is detected is not at the boundary (S211 → No), the abnormality detection server 2a performs the processes of step S203 and step S204.
As a result of step S211, when the video range in which the abnormality is detected is at the boundary (S211 → Yes), the abnormality detection processing unit 22 sets the area (size) of the abnormal range in the camera video to the camera video in which the abnormality is detected. It calculates for every (S212).
Then, the abnormality detection processing unit 22 identifies which camera image has the largest abnormality range among the camera images from which the abnormality is detected (S213). The camera video specified here corresponds to the video B2 in FIG.

続いて、異常検出処理部22は、ステップS213で特定したカメラ映像の情報と、ステップS212で算出した異常範囲の面積とを基に、境界移動方向・距離を算出する(S214)。すなわち、異常検出処理部22は、どのカメラ映像において、境界をどの方向にどの程度移動させるかを判定する。境界の移動距離は、ステップS213で特定したカメラ映像において、異常を示す物体の全体が含まれるような距離である。従って、境界の移動距離は、異常物体の大きさに応じた距離となる。また、異常検出処理部22は、異常を示す物体が写っているが、ステップS213で特定されたカメラ映像(図12の映像B2)ではないカメラ映像(図11の映像B1)についても、境界の移動方向・距離を算出する。   Subsequently, the abnormality detection processing unit 22 calculates the boundary moving direction / distance based on the information of the camera video specified in step S213 and the area of the abnormal range calculated in step S212 (S214). That is, the abnormality detection processing unit 22 determines how much the boundary is moved in which direction in which camera image. The moving distance of the boundary is such a distance that the entire object showing abnormality is included in the camera image specified in step S213. Therefore, the moving distance of the boundary is a distance according to the size of the abnormal object. Further, the abnormality detection processing unit 22 also captures the boundary of the camera image (image B1 in FIG. 11) that is not the camera image (image B2 in FIG. 12) identified in step S213, although an object indicating an abnormality is captured. Calculate the moving direction and distance.

続いて、情報送信部23が、境界移動情報を俯瞰映像処理装置1aへ送信する(S215)。境界移動情報は、境界を移動させたカメラ映像に相当するカメラ番号、カメラ映像のどの方向にどの程度境界を移動させたかを含む情報である。   Subsequently, the information transmission unit 23 transmits the boundary movement information to the overhead image processing apparatus 1a (S215). The boundary movement information is information including the camera number corresponding to the camera image that has moved the boundary and how much the boundary has been moved in which direction of the camera image.

そして、異常検出処理部22は、境界移動情報に従って、境界移動対象となるカメラ映像の境界を移動させた上で、異常情報を再抽出する(S216)。
そして、情報送信部23は、ステップS216が実行された場合、ステップS216で再抽出された異常情報を含む異常情報を映像サーバ3へ送信し(S204)、異常検出サーバ2aはステップS201へ処理を戻す。
Then, the abnormality detection processing unit 22 re-extracts the abnormality information after moving the boundary of the camera video to be the boundary movement according to the boundary movement information (S216).
When step S216 is executed, the information transmission unit 23 transmits abnormality information including the abnormality information re-extracted in step S216 to the video server 3 (S204), and the abnormality detection server 2a performs the process to step S201. return.

なお、すべてのカメラ4に予め優先順位を付しておいてもよい。この場合、図15のステップS212の処理を省略することで、異常範囲の面積の大きさに関係なく、優先順位の大きいカメラ映像の境界を移動させるようにしてもよい。
このように、第2実施形態によれば、俯瞰映像の境界に物体が存在していても、その物体の形状の歪度を低くして表示することができる。
Note that priorities may be assigned to all the cameras 4 in advance. In this case, the process of step S212 in FIG. 15 may be omitted to move the boundary of the camera image having a high priority order regardless of the size of the area of the abnormal range.
As described above, according to the second embodiment, even when an object is present at the boundary of the overhead view video, it is possible to display the object with a reduced degree of distortion.

なお、特許文献2にも、俯瞰映像を生成する際に境界領域に障害物が存在している場合における俯瞰映像の合成方法が記載されている。しかしながら、特許文献2では、境界領域に相当する箇所にソナーを配置し、そのソナーによって障害物を検出している。そして、障害物を検出すると、カメラ映像の境界が一定距離移動される。   Patent Document 2 also describes a method for synthesizing an overhead view video when an obstacle exists in the boundary area when the overhead view video is generated. However, in Patent Document 2, a sonar is arranged at a position corresponding to the boundary region, and an obstacle is detected by the sonar. When an obstacle is detected, the boundary of the camera image is moved by a certain distance.

また、道路施設上にソナーを設置することは、自律運転等の関連から好ましくない。
第2実施形態では、そのようなソナーを不要としている。
In addition, it is not preferable to install sonar on a road facility from the viewpoint of autonomous driving or the like.
In the second embodiment, such a sonar is unnecessary.

また、特許文献2に記載の技術のように、ソナーで障害物を検出すると、その障害物が、どのような距離にあるのかを検出することができるが、どのような物体で、どのくらいの大きさであるのかがわからない。そのため、特許文献2に記載の技術は、監視に不向きであり、また、どのくらい境界を移動させればよいかもわからない。そのため、境界の移動距離は一定の距離である。   Further, as in the technique described in Patent Document 2, when an obstacle is detected with sonar, it is possible to detect what distance the obstacle is located. I do n’t know if that ’s true. Therefore, the technique described in Patent Document 2 is not suitable for monitoring, and it is not known how much the boundary should be moved. Therefore, the moving distance of the boundary is a constant distance.

第2実施形態の監視支援システムZaは、異常物体がどのような物体であるのかを監視員が容易に特定できるのみならず、物体の大きさ等に応じて、境界を移動させることができる。一般に、俯瞰映像をカメラ映像から生成する場合、広角カメラが用いられるため、境界を大きく移動させればさせるほど、俯瞰生成時の映像の歪みが大きくなってしまう。第2実施形態の監視支援システムZaは、物体の大きさ等に応じて、境界を移動させるため、俯瞰生成時の映像の歪みを最小限に抑えることができる。   In the monitoring support system Za of the second embodiment, not only can the monitoring person easily identify what kind of object is the abnormal object, but also the boundary can be moved according to the size of the object. In general, when a bird's-eye view image is generated from a camera image, a wide-angle camera is used. Therefore, the larger the boundary is moved, the greater the distortion of the image at the time of overhead view generation. Since the monitoring support system Za according to the second embodiment moves the boundary according to the size of the object and the like, it is possible to minimize the distortion of the video when the overhead view is generated.

≪第3実施形態≫
次に、第3実施形態として、図16に示すように、人感センサや、火災報知機等のセンサ(センサ部)7が設置された監視支援システムZbについて説明する。
«Third embodiment»
Next, as a third embodiment, a monitoring support system Zb provided with a sensor (sensor unit) 7 such as a human sensor or a fire alarm will be described as shown in FIG.

(監視支援システムZb)
図16は、第3実施形態で用いられる監視支援システムZbの全体構成例を示す構成図である。
図16において、図9と同様の構成については同一の符号を付して、説明を省略する。
図16に示されるように、監視支援システムZbにおける料金所Tb(T1b〜T3b)は、図9に示す監視支援システムZaの構成に対して、複数のセンサ7が追加された構成である。なお、ここでは、図9に示す監視支援システムZaの構成に対してセンサ7を追加した例を示すが、図1に示す監視支援システムZにセンサ7を追加しても、機能的には同義である。
次に、第3実施形態における異常検出サーバ2bについて、図9に示す構成と異なる部分について説明する。俯瞰映像処理装置1a及び映像サーバ3の構成は図9に示すものと同様である。
(Monitoring support system Zb)
FIG. 16 is a configuration diagram illustrating an example of the overall configuration of the monitoring support system Zb used in the third embodiment.
In FIG. 16, the same components as those in FIG. 9 are denoted by the same reference numerals, and description thereof is omitted.
As shown in FIG. 16, the toll gate Tb (T1b to T3b) in the monitoring support system Zb has a configuration in which a plurality of sensors 7 are added to the configuration of the monitoring support system Za shown in FIG. Although an example in which the sensor 7 is added to the configuration of the monitoring support system Za shown in FIG. 9 is shown here, the addition of the sensor 7 to the monitoring support system Z shown in FIG. It is.
Next, parts of the abnormality detection server 2b according to the third embodiment that are different from the configuration shown in FIG. 9 will be described. The configurations of the overhead video processing apparatus 1a and the video server 3 are the same as those shown in FIG.

(異常検出サーバ2b)
異常検出サーバ2bは、センサ判定処理部25を有している点が、図9に示す異常検出サーバ2aと異なっている。
センサ判定処理部25は、各センサ7の値が異常であるか否かを監視等する。
(Abnormality detection server 2b)
The abnormality detection server 2b is different from the abnormality detection server 2a shown in FIG. 9 in that it includes a sensor determination processing unit 25.
The sensor determination processing unit 25 monitors whether or not the value of each sensor 7 is abnormal.

第1実施形態及び第2実施形態では、異常検出処理が、複数台のカメラ4からのカメラ映像に基づいて行われている。第3実施形態では、第1実施形態及び第2実施形態による異常検出に加えて、センサ7による検出結果が追加される。
センサ7とは、具体的には、赤外線を利用した人感センサや、火災報知機や、磁気を利用した車両検知センサ等といった公知のセンサである。車両検知センサとして、ETCに搭載されているセンサが利用されてもよい。
どのようなセンサ7を用いるかは、検出する物体や事象により異なる。このようにセンサ7を追加することにより、移動物体や異常状況の検出の精度が向上する。
In the first embodiment and the second embodiment, the abnormality detection process is performed based on camera images from a plurality of cameras 4. In the third embodiment, the detection result by the sensor 7 is added in addition to the abnormality detection by the first embodiment and the second embodiment.
Specifically, the sensor 7 is a known sensor such as a human sensor using infrared rays, a fire alarm, or a vehicle detection sensor using magnetism. A sensor mounted on the ETC may be used as the vehicle detection sensor.
Which sensor 7 is used differs depending on the object or event to be detected. By adding the sensor 7 in this way, the accuracy of detecting a moving object or an abnormal situation is improved.

[フローチャート]
以下、異常検出サーバ2b、映像サーバ3で行われる処理を説明する。各フローチャートの説明では、図16を適宜参照する。
(異常検出サーバ2b)
図17は、第3実施形態で用いられる異常検出サーバ2bの処理手順を示すフローチャートである。
なお、図17について、図15と同様の処理については、同一のステップ番号を付して説明を省略する。
ステップS204の後、センサ判定処理部25は、センサ7による異常(センサ異常値)を検出したか否かを判定する(S221)。
ステップS221の結果、センサ7による異常を検出していない場合(S221→No)、異常検出サーバ2は、ステップS201へ処理を戻す。
[flowchart]
Hereinafter, processing performed in the abnormality detection server 2b and the video server 3 will be described. In the description of each flowchart, FIG. 16 is referred to as appropriate.
(Abnormality detection server 2b)
FIG. 17 is a flowchart showing a processing procedure of the abnormality detection server 2b used in the third embodiment.
In FIG. 17, processing similar to that in FIG. 15 is denoted by the same step number and description thereof is omitted.
After step S204, the sensor determination processing unit 25 determines whether or not an abnormality (sensor abnormal value) by the sensor 7 is detected (S221).
If no abnormality is detected by the sensor 7 as a result of step S221 (S221 → No), the abnormality detection server 2 returns the process to step S201.

ステップS221の結果、センサ7による異常を検出した場合(S221→Yes)、情報送信部23は、異常を検出したセンサ7の番号であるセンサ番号を映像サーバ3へ送信する(S222)。そして、異常検出サーバ2はステップS201へ処理を戻す。   As a result of step S221, when an abnormality is detected by the sensor 7 (S221 → Yes), the information transmission unit 23 transmits a sensor number that is the number of the sensor 7 that detected the abnormality to the video server 3 (S222). Then, the abnormality detection server 2 returns the process to step S201.

なお、ステップS221及びステップS222が実行されるタイミングは、図17に示すタイミングに限らず、ステップS201〜ステップS204の間のどのタイミングで行われてもよい。   Note that the timing at which step S221 and step S222 are executed is not limited to the timing illustrated in FIG. 17, and may be performed at any timing between step S201 and step S204.

(映像サーバ3)
図18は、第3実施形態で用いられる映像サーバ3の処理手順を支援すフローチャートである。
なお、図18について、図8と同様の処理については、同一の符号を付して説明を省略する。
ステップS304及びステップS305の後、判定処理部32は図17のステップS222で送信されたセンサ番号を受信したか否かを判定する(S311)。
ステップS311の結果、センサ番号を受信していない場合(S311→No)、映像サーバ3はステップS301へ処理を戻す。
(Video server 3)
FIG. 18 is a flowchart for supporting the processing procedure of the video server 3 used in the third embodiment.
In FIG. 18, the same processes as those in FIG.
After step S304 and step S305, the determination processing unit 32 determines whether or not the sensor number transmitted in step S222 of FIG. 17 has been received (S311).
If the sensor number is not received as a result of step S311 (S311 → No), the video server 3 returns the process to step S301.

ステップS311の結果、センサ番号を受信した場合(S311→Yes)、映像処理部33は、合成俯瞰映像において受信したセンサ番号に相当する箇所にセンサ警告表示を表示した表示用映像を生成する(S312)。
そして、映像サーバ3はステップS301へ処理を戻す。
When the sensor number is received as a result of step S311 (S311 → Yes), the video processing unit 33 generates a display video in which a sensor warning display is displayed at a location corresponding to the received sensor number in the synthesized overhead video (S312). ).
Then, the video server 3 returns the process to step S301.

(画面例)
図19は、第5実施形態で用いられる監視支援システムZbにおける表示用映像201dを示す図である。
図19において、図13と同様の要素については、図13と同一の符号を付して説明を省略する。
図19に示す表示用映像201dでは、異常物体を示す枠線M2の他に、人がいることを示すセンサ警告表示301と、火災が発生していることを示すセンサ警告表示302が表示されている。
センサ警告表示301で示される人がいることを示す警告表示は人感センサによって検出される異常である。また、センサ警告表示301における火災が発生していることを示す警告表示は火災報知機によって検出される異常である。映像サーバ3には、センサ7の種類と、警告表示のパターンとをひも付けて記憶していることで、図19に示すように、警告内容に合わせた警告表示が可能となる。
(Screen example)
FIG. 19 is a diagram showing a display image 201d in the monitoring support system Zb used in the fifth embodiment.
19, the same elements as those in FIG. 13 are denoted by the same reference numerals as those in FIG.
In the display video 201d shown in FIG. 19, in addition to the frame line M2 indicating an abnormal object, a sensor warning display 301 indicating that there is a person and a sensor warning display 302 indicating that a fire has occurred are displayed. Yes.
The warning display indicating that there is a person indicated by the sensor warning display 301 is an abnormality detected by the human sensor. The warning display indicating that a fire has occurred in the sensor warning display 301 is an abnormality detected by the fire alarm. The video server 3 stores the type of the sensor 7 and the warning display pattern in association with each other, thereby enabling warning display according to the warning content as shown in FIG.

第3実施形態の監視支援システムZbは、映像による監視だけでなく、センサ7による監視もできるため、監視精度を向上させることができる。   The monitoring support system Zb of the third embodiment can improve monitoring accuracy because it can monitor not only by video but also by the sensor 7.

なお、例えば、火災報知機に備えられている温度センサで検出される温度が高いほど、センサ警告表示301を赤く表示させる等といったように、センサ7の出力値に応じた表示が行われてもよい。   In addition, for example, even if the display according to the output value of the sensor 7 is performed such that the sensor warning display 301 is displayed in red as the temperature detected by the temperature sensor provided in the fire alarm is higher. Good.

例えば、本実施形態では、高速道路の料金所T,Ta,Tbに適用されている例を示しているが、高速道路の本線や、サービスエリアや、パーキングエリア、ガソリンスタンド等といった道路施設に適用することができる。   For example, the present embodiment shows an example applied to a toll gate T, Ta, Tb on a highway, but it is applied to a road facility such as a main road of a highway, a service area, a parking area, a gas station, etc. can do.

本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to having all the configurations described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. Moreover, it is possible to add / delete / replace other configurations for a part of the configurations of the embodiments.

俯瞰映像処理装置1(1a)、異常検出サーバ2(2a,2b)、映像サーバ3は、いずれか2つを1つの装置としてもよい。あるいは、俯瞰映像処理装置1(1a)、異常検出サーバ2(2a,2b)、映像サーバ3が1つの装置にまとめられてもよい。   Any two of the overhead video processing device 1 (1a), the abnormality detection server 2 (2a, 2b), and the video server 3 may be one device. Alternatively, the overhead video processing device 1 (1a), the abnormality detection server 2 (2a, 2b), and the video server 3 may be combined into one device.

また、本実施形態では、枠線で異常物体を囲むことで強調表示を行っているが、枠線に限らない。また、異常物体が検出された場合、異常物体が強調表示されるとともに、警報音等を発することで監視員に異常物体が検出されたことを報知してもよい。   In the present embodiment, highlighting is performed by surrounding an abnormal object with a frame line, but the present invention is not limited to the frame line. Further, when an abnormal object is detected, the abnormal object may be highlighted and a warning sound or the like may be generated to notify the monitoring staff that the abnormal object has been detected.

また、映像サーバ3が管制室Cに設置されていたり、管制サーバ6が映像サーバ3の機能を有していたりしてもよい。
また、モニタ61は、スマートフォンや、タブレット端末等の携帯端末であってもよい。
Further, the video server 3 may be installed in the control room C, or the control server 6 may have the function of the video server 3.
The monitor 61 may be a mobile terminal such as a smartphone or a tablet terminal.

また、前記した各構成、機能、各部11〜16,21〜25,31〜34、記憶装置103等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、図5に示すように、前記した各構成、機能等は、CPU102等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリ101や、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
In addition, each of the above-described configurations, functions, units 11 to 16, 21 to 25, 31 to 34, the storage device 103, and the like are realized by hardware by designing a part or all of them with, for example, an integrated circuit. May be. Further, as shown in FIG. 5, the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by a processor such as the CPU 102. In addition to storing information such as programs, tables, and files for realizing each function in an HD (Hard Disk), a memory 101, a recording device such as an SSD (Solid State Drive), or an IC (Integrated Circuit) card It can also be stored in a recording medium such as an SD (Secure Digital) card or a DVD (Digital Versatile Disc).
In each embodiment, control lines and information lines are those that are considered necessary for explanation, and not all control lines and information lines are necessarily shown on the product. In practice, it can be considered that almost all configurations are connected to each other.

1,1a 俯瞰映像処理装置
2,2a,2b 異常検出サーバ
3 映像サーバ
4,4A〜4H カメラ(撮像部)
6 管制サーバ
7 センサ(センサ部)
11 情報受信部
12 俯瞰映像生成部
13 合成俯瞰映像生成部
14 情報送信部
15 判定処理部
16 境界調整部
21 情報受信部
22 異常検出処理部
23 情報送信部
24 判定処理部
31 情報受信部
32 判定処理部
33 映像処理部
34 情報送信部
61,61a〜61c モニタ(表示部)
200,200A〜200H 俯瞰映像
201,201a〜201d 表示用映像
202,L11,L12,L21,L22 境界(境界部)
251,251a,251b 合成俯瞰映像
301,301 センサ警告表示
M 枠線(強調表示)
T,T1〜T3,Ta,T1a〜T3a,Tb,T1b〜T3b 料金所(道路施設)
Z,Za,Zb 監視支援システム
1, 1a Overhead video processing device 2, 2a, 2b Anomaly detection server 3 Video server 4, 4A-4H Camera (imaging unit)
6 Control server 7 Sensor (sensor part)
DESCRIPTION OF SYMBOLS 11 Information reception part 12 Overhead video production | generation part 13 Composite overhead view video production | generation part 14 Information transmission part 15 Judgment processing part 16 Boundary adjustment part 21 Information reception part 22 Abnormality detection processing part 23 Information transmission part 24 Judgment processing part 31 Information reception part 32 Determination Processing unit 33 Video processing unit 34 Information transmission unit 61, 61a to 61c Monitor (display unit)
200, 200A to 200H overhead image 201, 201a to 201d display image 202, L11, L12, L21, L22 boundary (boundary part)
251, 251a, 251b Composite bird's-eye view image 301, 301 Sensor warning display M Frame (highlighted)
T, T1-T3, Ta, T1a-T3a, Tb, T1b-T3b Tollgate (road facility)
Z, Za, Zb monitoring support system

Claims (9)

道路施設に備えられている複数の撮像部と、
前記複数の撮像部それぞれで撮像された撮像映像から俯瞰映像を生成する俯瞰映像生成部と、
前記俯瞰映像生成部で生成された前記俯瞰映像を合成することで合成俯瞰映像を生成する合成俯瞰映像生成部と、
前記複数の撮像部で撮像された前記撮像映像から物体の異常状態を検出する異常検出処理部と
前記異常状態が検出された前記物体を前記合成俯瞰映像中に強調表示する映像処理部と、
を有することを特徴とする監視支援システム。
A plurality of imaging units provided in a road facility;
An overhead video generation unit that generates an overhead video from captured images captured by each of the plurality of imaging units;
A synthesized overhead view video generation unit that generates a synthesized overhead view video by synthesizing the overhead view video generated by the overhead view video generation unit;
An abnormality detection processing unit that detects an abnormal state of an object from the captured images captured by the plurality of imaging units; and a video processing unit that highlights the object in which the abnormal state is detected in the synthesized overhead view image;
A monitoring support system characterized by comprising:
前記異常状態を検出された前記物体が、前記俯瞰映像を生成するための境界部に存在する場合、前記境界部を移動する境界調整部
を有することを特徴とする請求項1に記載の監視支援システム。
The monitoring support according to claim 1, further comprising: a boundary adjusting unit that moves the boundary when the object in which the abnormal state is detected is present at the boundary for generating the overhead view video. system.
前記境界調整部は、
前記境界部に存在している前記物体の面積・サイズを、前記物体が存在する、それぞれの前記撮像映像において算出し、所定の撮像映像において、前記物体の全体が写るよう、境界部を移動する
ことを特徴とする請求項2に記載の監視支援システム。
The boundary adjustment unit
The area / size of the object existing at the boundary is calculated in each captured image where the object is present, and the boundary is moved so that the entire object is captured in the predetermined captured image. The monitoring support system according to claim 2.
センサ部を有し、
前記映像処理部は、前記センサ部で検出された異常状態を前記合成俯瞰映像に表示する
ことを特徴とする請求項1に記載の監視支援システム。
Having a sensor part,
The monitoring support system according to claim 1, wherein the video processing unit displays an abnormal state detected by the sensor unit in the synthesized overhead view video.
前記道路施設は料金所である
ことを特徴とする請求項1から請求項4のいずれか一項に記載の監視支援システム。
The monitoring support system according to any one of claims 1 to 4, wherein the road facility is a toll gate.
複数の前記道路施設で撮影された撮像映像を基に、前記映像処理部で生成された映像を、前記道路施設毎に表示する表示部
を有することを特徴とする請求項1から請求項5のいずれか一項に記載の監視支援システム。
The display unit according to any one of claims 1 to 5, further comprising: a display unit configured to display, for each road facility, an image generated by the image processing unit based on captured images captured by the plurality of road facilities. The monitoring support system according to any one of the above.
道路施設に備えられている複数の撮像部を有する監視支援システムが、
前記複数の撮像部それぞれで撮像された撮像映像から俯瞰映像を生成し、
生成された前記俯瞰映像を合成することで合成俯瞰映像を生成し、
前記複数の撮像部で撮像された前記撮像映像から物体の異常状態を検出し、
前記異常状態が検出された前記物体を前記合成俯瞰映像中に強調表示する
ことを特徴とする監視支援方法。
A monitoring support system having a plurality of imaging units provided in a road facility,
An overhead image is generated from the captured image captured by each of the plurality of imaging units,
A synthesized overhead view video is generated by synthesizing the generated overhead view video,
Detecting an abnormal state of an object from the captured images captured by the plurality of imaging units;
The monitoring support method, wherein the object in which the abnormal state is detected is highlighted in the synthesized overhead view video.
前記監視支援システムが、
前記異常状態を検出された前記物体が、前記俯瞰映像を生成するための境界部に存在する場合、前記境界部を移動する
ことを特徴とする請求項7に記載の監視支援方法。
The monitoring support system is
The monitoring support method according to claim 7, wherein when the object in which the abnormal state is detected is present at a boundary part for generating the overhead view video, the boundary part is moved.
前記監視支援システムが、
前記境界部に存在している前記物体の面積・サイズを、前記物体が存在する、それぞれの前記撮像映像において算出し、所定の撮像映像において、前記物体の全体が写るよう、境界部を移動する
ことを特徴とする請求項8に記載の監視支援方法。
The monitoring support system is
The area / size of the object existing at the boundary is calculated in each captured image where the object is present, and the boundary is moved so that the entire object is captured in the predetermined captured image. The monitoring support method according to claim 8, wherein:
JP2017122453A 2017-06-22 2017-06-22 Monitoring support system and monitoring support method Active JP6920776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017122453A JP6920776B2 (en) 2017-06-22 2017-06-22 Monitoring support system and monitoring support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122453A JP6920776B2 (en) 2017-06-22 2017-06-22 Monitoring support system and monitoring support method

Publications (2)

Publication Number Publication Date
JP2019008474A true JP2019008474A (en) 2019-01-17
JP6920776B2 JP6920776B2 (en) 2021-08-18

Family

ID=65029059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122453A Active JP6920776B2 (en) 2017-06-22 2017-06-22 Monitoring support system and monitoring support method

Country Status (1)

Country Link
JP (1) JP6920776B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111915900A (en) * 2019-05-07 2020-11-10 株式会社电装 Information processing apparatus and method, and computer-readable storage medium
JP2021140689A (en) * 2020-03-09 2021-09-16 三菱電機株式会社 Drive assistance system, drive assistance device, drive assistance method, and drive assistance program
WO2023151401A1 (en) * 2022-02-09 2023-08-17 城云科技(中国)有限公司 Abnormal municipal facility positioning method and apparatus and use thereof
US11787335B2 (en) 2019-07-26 2023-10-17 Aisin Corporation Periphery monitoring device
WO2024166514A1 (en) * 2023-02-10 2024-08-15 トヨタ自動車株式会社 Remote support system and remote support method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057474A (en) * 1998-08-13 2000-02-25 Fujitsu Ltd Road control system and its method
JP2002056381A (en) * 2000-08-11 2002-02-20 Fujitsu Ltd Road state image processing device
JP2007104373A (en) * 2005-10-05 2007-04-19 Alpine Electronics Inc On-vehicle image displaying device
JP2007114829A (en) * 2005-10-18 2007-05-10 Mitsubishi Heavy Ind Ltd Remote monitoring system for toll road tollgate
JP2008028605A (en) * 2006-07-20 2008-02-07 Matsushita Electric Ind Co Ltd Image recording device for monitoring
JP2009246808A (en) * 2008-03-31 2009-10-22 Mitsubishi Motors Corp Surrounding monitoring device for vehicle
JP2012194701A (en) * 2011-03-15 2012-10-11 Toshiba Corp Lane monitoring apparatus
JP2013210889A (en) * 2012-03-30 2013-10-10 Mitsubishi Heavy Ind Ltd Toll gate guidance control system, toll gate guidance control method, and toll gate guidance control program
US20160171857A1 (en) * 2014-12-12 2016-06-16 Honeywell International Inc. System and Method for Fire Progress Monitoring

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057474A (en) * 1998-08-13 2000-02-25 Fujitsu Ltd Road control system and its method
JP2002056381A (en) * 2000-08-11 2002-02-20 Fujitsu Ltd Road state image processing device
JP2007104373A (en) * 2005-10-05 2007-04-19 Alpine Electronics Inc On-vehicle image displaying device
JP2007114829A (en) * 2005-10-18 2007-05-10 Mitsubishi Heavy Ind Ltd Remote monitoring system for toll road tollgate
JP2008028605A (en) * 2006-07-20 2008-02-07 Matsushita Electric Ind Co Ltd Image recording device for monitoring
JP2009246808A (en) * 2008-03-31 2009-10-22 Mitsubishi Motors Corp Surrounding monitoring device for vehicle
JP2012194701A (en) * 2011-03-15 2012-10-11 Toshiba Corp Lane monitoring apparatus
JP2013210889A (en) * 2012-03-30 2013-10-10 Mitsubishi Heavy Ind Ltd Toll gate guidance control system, toll gate guidance control method, and toll gate guidance control program
US20160171857A1 (en) * 2014-12-12 2016-06-16 Honeywell International Inc. System and Method for Fire Progress Monitoring

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111915900A (en) * 2019-05-07 2020-11-10 株式会社电装 Information processing apparatus and method, and computer-readable storage medium
JP2020184164A (en) * 2019-05-07 2020-11-12 株式会社デンソー Information processing device
JP7140043B2 (en) 2019-05-07 2022-09-21 株式会社デンソー Information processing equipment
CN111915900B (en) * 2019-05-07 2024-06-07 株式会社电装 Information processing apparatus and method, and computer-readable storage medium
US11787335B2 (en) 2019-07-26 2023-10-17 Aisin Corporation Periphery monitoring device
JP2021140689A (en) * 2020-03-09 2021-09-16 三菱電機株式会社 Drive assistance system, drive assistance device, drive assistance method, and drive assistance program
JP7422567B2 (en) 2020-03-09 2024-01-26 三菱電機株式会社 Driving support system, driving support device, driving support method, and driving support program
WO2023151401A1 (en) * 2022-02-09 2023-08-17 城云科技(中国)有限公司 Abnormal municipal facility positioning method and apparatus and use thereof
WO2024166514A1 (en) * 2023-02-10 2024-08-15 トヨタ自動車株式会社 Remote support system and remote support method

Also Published As

Publication number Publication date
JP6920776B2 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
JP6920776B2 (en) Monitoring support system and monitoring support method
US20230412925A1 (en) Video surveillance system and video surveillance method
US10721434B2 (en) Video transmission apparatus, video transmission method, and program
JP3876288B2 (en) State recognition system and state recognition display generation method
EP3098754A1 (en) Video camera scene translation
KR101937272B1 (en) Method and Apparatus for Detecting Event from Multiple Image
JP6062039B2 (en) Image processing system and image processing program
EP3435346B1 (en) Spectacle-type wearable terminal, and control method and control program for same
JP7388478B2 (en) Information processing system, information processing method, and information processing program
KR101530255B1 (en) Cctv system having auto tracking function of moving target
CN105554440A (en) Monitoring methods and devices
KR20130130544A (en) Method and system for presenting security image
US20220189038A1 (en) Object tracking apparatus, control method, and program
KR101977635B1 (en) Multi-camera based aerial-view 360-degree video stitching and object detection method and device
JP7314973B2 (en) VIDEO MONITORING DEVICE, VIDEO MONITORING METHOD AND PROGRAM
KR101719799B1 (en) CCTV monitoring system
JP5502700B2 (en) Traffic vehicle monitoring system and traffic vehicle monitoring device
KR101736431B1 (en) System and Method for Smart Traffic Monitoring Using Multiple Image
US10979675B2 (en) Video monitoring apparatus for displaying event information
JP2018192844A (en) Monitoring device, monitoring system, monitoring program, and storage medium
EP2270761A1 (en) System architecture and process for tracking individuals in large crowded environments
JP2022138639A (en) Processing device
JP2001320699A (en) Intruded object monitoring method and intruded object monitoring system
CN112640444A (en) Station monitoring device, station monitoring method, and program
EP4270327A1 (en) Method for counting passengers of a public transportation system, control apparatus and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6920776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150