JP2018192844A - Monitoring device, monitoring system, monitoring program, and storage medium - Google Patents

Monitoring device, monitoring system, monitoring program, and storage medium Download PDF

Info

Publication number
JP2018192844A
JP2018192844A JP2017096104A JP2017096104A JP2018192844A JP 2018192844 A JP2018192844 A JP 2018192844A JP 2017096104 A JP2017096104 A JP 2017096104A JP 2017096104 A JP2017096104 A JP 2017096104A JP 2018192844 A JP2018192844 A JP 2018192844A
Authority
JP
Japan
Prior art keywords
monitoring
unit
stereo
server
stereo image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017096104A
Other languages
Japanese (ja)
Other versions
JP7031817B2 (en
Inventor
良幸 長尾
Yoshiyuki Nagao
良幸 長尾
昌康 佐藤
Masayasu Sato
昌康 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computer System Kenkyusho Kk
Computer System Technology Co Ltd
Original Assignee
Computer System Kenkyusho Kk
Computer System Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computer System Kenkyusho Kk, Computer System Technology Co Ltd filed Critical Computer System Kenkyusho Kk
Priority to JP2017096104A priority Critical patent/JP7031817B2/en
Publication of JP2018192844A publication Critical patent/JP2018192844A/en
Application granted granted Critical
Publication of JP7031817B2 publication Critical patent/JP7031817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

To provide a monitoring system which counts objects in a virtual monitoring area without directly monitoring an area to be monitored.SOLUTION: A monitoring system provided with a first and a second stereoscopic cameras SC1 and SC2 and a server comprises an imaging part CAM which creates stereoscopic images using the first and second stereoscopic cameras and a communication part COM which transmits information of the stereoscopic images to the server. The server comprises a monitoring line setting part MLS which accepts a stop line setting for a railway crossing and a first and a second monitoring lines setting for blocking bars at the time of blocking in the stereoscopic images of the first and second stereoscopic cameras, monitoring part MON which analyzes the stereoscopic images, recognizes objects passing the monitoring line and counts objects that enter or exit the monitored area and an alarm output part WOT which outputs a prescribed alarm if it is found, as a result of analysis of the stereoscopic images, that the number of objects in the monitored area is not zero when the fact that the blocking bars are lowered is recognized.SELECTED DRAWING: Figure 1

Description

本発明は、監視装置、監視システム、監視プログラム、および、記憶媒体に関し、特に、監視線や監視面を自動的に設定する監視装置、監視システム、監視プログラム、および、記憶媒体に関するものである。   The present invention relates to a monitoring device, a monitoring system, a monitoring program, and a storage medium, and more particularly to a monitoring device, a monitoring system, a monitoring program, and a storage medium that automatically set a monitoring line and a monitoring surface.

監視カメラは、従来から利用されてきたが、インターネット回線の普及によってネットワークに接続され、遠隔のサーバで監視するような運用が多くなりつつある。また、カメラの画素数も多くなり、録画された画像を事後的に解析して、事故や犯罪の認識が可能となった。このような監視カメラの現状であるが、最も多い利用形態は、建物に無人の監視カメラを設置し、遠隔地において、警備会社などの防犯係員が監視カメラの映像を監視して、防犯に役立てるものである。防犯係員は、監視カメラの多数の画像を多数の表示装置で実際に観察して、疑わしい対象(不審者や不審物)を認識し、必要であれば、警備員を派遣したり、不審者に警告したりしている。   Surveillance cameras have been used in the past, but are increasingly connected to a network due to the widespread use of the Internet line and monitored by remote servers. In addition, the number of pixels of the camera has increased, and the recorded images can be analyzed afterwards to recognize accidents and crimes. This is the current state of surveillance cameras, but the most common usage is to install unmanned surveillance cameras in buildings, and security personnel such as security companies monitor the images of surveillance cameras at remote locations to help in crime prevention. Is. Security officers actually observe a large number of images from surveillance cameras on a large number of display devices to recognize suspicious objects (suspicious persons and suspicious objects), and if necessary, dispatch security guards to suspicious persons. There are warnings.

しかしながら、防犯係員は、様々な場所、様々な建物を映す監視カメラの画像を見ることになるが、その画像内には、公的な領域である道路、公園、通路、または、隣接する無関係の建物や敷地などもあり、どこが大丈夫で、どこに侵入されれば、不審者と見做していいのかが即座に理解できない場合も多い。場合によっては、仕切りのない私有地や、本来は侵入が許されない領域へ不審者が侵入しても、防犯係員が気付かないこともある。近年、テロや犯罪などもあり、監視カメラの設置は急激に増加しているが、このような状況は、監視する防犯係員の負担を増加させ、監視ミスを誘発させている。   Security officers, however, will see images of surveillance cameras in various locations and buildings, but in the images, public areas such as roads, parks, walkways, or adjacent unrelated There are buildings and grounds, and it is often impossible to immediately understand where is okay and where it can be considered a suspicious person. In some cases, security officers may not be aware if a suspicious person enters a private land with no partitions or an area where entry is not permitted. In recent years, there are terrorism and crimes, and the installation of surveillance cameras is increasing rapidly. However, such a situation increases the burden on security personnel to be monitored and induces surveillance mistakes.

監視カメラの自動化の従来技術として、画像処理装置、画像処理システム及びプログラム(特許文献1を参照されたい。)がある。これは、「監視領域の全景画像内に注視領域を設定し、画像解析手段により、設定した注視領域の画像を解析して移動体を検出し、検出に基づきカメラ部のズームカメラを作動して上記移動体を撮影する。その際、注視部分画像に全景画像との空間的な関係情報と、注視部分画像の全景画像における時間軸上の遷移を示す時間的な関係情報を作成し、注視部分画像に前記各関係情報を付与して画像記憶部に記憶させる。検索時には、上記各関係情報を用いて、全景画像及び注視部分画像を検索して両画像を重ねて表示部に表示する。」といった技術である。   As conventional techniques for monitoring camera automation, there are an image processing apparatus, an image processing system, and a program (see Patent Document 1). This is because "a gaze area is set in the entire view image of the monitoring area, the moving object is detected by analyzing the image of the set gaze area by the image analysis means, and the zoom camera of the camera unit is operated based on the detection. In this case, the spatial relationship information between the gaze partial image and the whole view image and the temporal relationship information indicating the transition on the time axis in the whole view image of the gaze partial image are created. The related information is added to the image and stored in the image storage unit.At the time of search, the entire related image and the gaze partial image are searched using the related information, and both images are displayed on the display unit. Technology.

特開2010-233185号公報JP 2010-233185 A

上記の従来技術は、監視領域を設定した後で、その監視領域内での移動体を不審な対象としてズームさせて撮影するものである。これは、不審者を自動追尾してズームする技術であるが、「監視領域の自動設定」はできない。また、監視領域が広い場合や監視領域に複数の移動体が入った場合には、高速な演算装置でなければ処理が間に合わなくなり、不審な対象の捕捉が不可能になるなどのデメリットがある。このように、従来技術では、監視領域を設定するには、人間が設定することが必須であり、自動動設定の技術はなかった。監視カメラの設定者による監視領域の設定においても、設定すべき監視領域を適正に設定できるか否かは、監視カメラの設定者の技量や当該建物や敷地の状況を知っているか否かに依存することになる。このような人的な設定では、監視領域の設定ミスを無くすことは容易なことではない。   In the above-described conventional technique, after setting a monitoring area, a moving body in the monitoring area is zoomed as a suspicious object and photographed. This is a technique for automatically tracking a suspicious person and zooming, but “automatic setting of a monitoring area” cannot be performed. Further, when the monitoring area is wide or when a plurality of moving objects enter the monitoring area, there is a demerit that processing cannot be performed in time unless it is a high-speed computing device, making it impossible to capture suspicious objects. As described above, in the prior art, in order to set the monitoring area, it is indispensable for a human to set, and there is no automatic movement setting technique. Whether or not the surveillance area to be set can be properly set in the surveillance area setting by the surveillance camera setter also depends on whether the surveillance camera setter knows the skill of the surveillance camera and the situation of the building or site. Will do. With such a human setting, it is not easy to eliminate a monitoring area setting error.

また、監視カメラは自動認識でも人間による観察においても、光、雨などの気象変化を、不審者や不審物であると間違って認識することがあるが、これについては、カメラの画素数を増大させるなどで対応しているが、根本的には解決していない。   In addition, surveillance cameras may mistakenly recognize changes in weather such as light and rain as suspicious persons or suspicious objects, whether in automatic recognition or human observation. It is not solved by fundamentally.

ところで、カメラ以外の監視装置の従来技術には、光線発信機と、光線受信機とのセットで、そこの間に監視線を設定するものがある。監視線を対象が遮ったときに、これを不審者として警報を出すような装置である。これは、現在も、夜間警備のシステムとして広く使用されている。しかし、この従来技術も、監視線の機械を一旦設置した後は、監視線を変更するには機械自体を移設する必要があるため、監視線を容易に移設したり、変更したりすることが困難だという欠点があった。また、監視線の数だけ、発信部と受信部とのセットが必要となるという欠点もある。   By the way, in the prior art of monitoring devices other than cameras, there is one in which a monitoring line is set between a set of a light beam transmitter and a light beam receiver. It is a device that issues an alarm as a suspicious person when an object blocks the monitoring line. This is still widely used as a night security system. However, in this prior art, once the monitoring line machine is installed, it is necessary to move the machine itself in order to change the monitoring line. Therefore, the monitoring line can be easily moved or changed. There was a drawback that it was difficult. In addition, there is a drawback in that a set of transmitters and receivers is required for the number of monitoring lines.

また、監視する対象としては、上記のような施設など以外に、道路、線路、踏切などがある。特に、踏切は、国内に数万か所以上あり、事故が頻発する危険領域である。踏切には、監視カメラが設定される場合があるが、保守員がカメラ映像を監視するものが殆どであり、自動的に対象を検知するようなものは開発されていない。現在は、高齢化社会であり、高齢者や幼児の歩行者の渡り遅れ、高齢運転者の自動車や自転車での立ち往生などにより、人身事故が多い。このような踏切領域の事故軽減は喫緊の課題であるが、効果的なシステムは開発されていない。   In addition to the above facilities, the objects to be monitored include roads, railroad tracks, railroad crossings, and the like. In particular, there are more than tens of thousands of railroad crossings in Japan, and it is a dangerous area where accidents occur frequently. There are cases where a surveillance camera is set for a level crossing, but most maintenance personnel monitor camera images, and those that automatically detect an object have not been developed. Currently, it is an aging society, and there are many personal accidents due to delays in the migration of elderly people and infant pedestrians, and elderly drivers getting stuck in cars and bicycles. Reducing accidents in such crossing areas is an urgent issue, but no effective system has been developed.

そこで、本発明の目的は、上記諸課題を解決した監視装置、監視システム、監視プログラム、および、記憶媒体に関し、特に、監視領域を直接監視することなく、2つの監視カメラによって構築された仮想的な監視領域(踏切のような危険領域)の対象をカウントする監視装置、監視システム、監視プログラム、および、記憶媒体を提供することである。   Accordingly, an object of the present invention relates to a monitoring device, a monitoring system, a monitoring program, and a storage medium that solve the above-described problems, and in particular, a virtual constructed by two monitoring cameras without directly monitoring a monitoring area. It is to provide a monitoring device, a monitoring system, a monitoring program, and a storage medium that count objects in various monitoring areas (dangerous areas such as railroad crossings).

上述した諸課題を解決すべく、第1の発明による監視システム(装置)は、
第1と第2のステレオカメラとサーバとを含む監視システムであって、
前記第1のステレオカメラが、
ステレオ画像を撮像する撮像部と、
前記ステレオ画像を前記サーバに送信する通信部と、
を有し、
前記第2のステレオカメラが、
ステレオ画像を撮像する撮像部と、
前記ステレオ画像を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記第1と第2のステレオカメラから送信された前記ステレオ画像、をそれぞれ受信する通信部と、
前記第1と第2のステレオカメラにおける前記ステレオ画像内において、踏切に対する停止線または遮断時の遮断棒に対応した第1と第2の監視線の設定を受け付ける監視線設定部と、
前記ステレオ画像を解析して、前記受け付けた第1と第2の監視線を通過する対象を認識し、第1の監視線と第2の監視線との間の監視領域への対象の出入りの数を計測する監視部と、
前記ステレオ画像を解析して、踏切の遮断棒が下りたことを認識したとき、前記監視領域内の対象の数がゼロでないとき、所定の警報(電子メールの送信、警告音声の出力や送信、画像出力、監視員への警告、運転者への警告、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
In order to solve the above-described problems, the monitoring system (device) according to the first invention
A monitoring system including first and second stereo cameras and a server,
The first stereo camera is
An imaging unit that captures a stereo image;
A communication unit for transmitting the stereo image to the server;
Have
The second stereo camera is
An imaging unit that captures a stereo image;
A communication unit for transmitting the stereo image to the server;
Have
The server is
A communication unit for receiving the stereo images transmitted from the first and second stereo cameras, and
A monitoring line setting unit for receiving setting of first and second monitoring lines corresponding to a stop line for a crossing or a blocking bar at the time of blocking in the stereo images in the first and second stereo cameras;
Analyzing the stereo image, recognizing an object passing through the received first and second monitoring lines, and entering and exiting the object into a monitoring area between the first monitoring line and the second monitoring line A monitoring unit for measuring the number;
When analyzing the stereo image and recognizing that the crossing bar is lowered, when the number of objects in the monitoring area is not zero, a predetermined alarm (e-mail transmission, warning sound output or transmission, An alarm output unit that outputs image output, warnings to supervisors, warnings to drivers, reports to security companies and police, etc.,
Having
It is characterized by that.

また、第2の発明による監視システム(装置)は、
第1と第2のステレオカメラとサーバとを含む監視システムであって、
前記第1のステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記第2のステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記第1と第2のステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向をそれぞれ受信する通信部と、
前記第1と第2のステレオカメラにおける前記位置の踏切および/または道路に関する土木情報を取得する取得部と、
前記第1と第2のステレオカメラにおける前記位置、前記方向、および、前記土木情報に基づき、前記ステレオ画像内における踏切に対する停止線または遮断時の遮断棒の座標を求め、前記ステレオ画像内において該座標に対応した第1と第2の監視線を設定する監視線設定部と、
前記ステレオ画像を解析して、前記設定した第1と第2の監視線を通過する対象を認識し、第1の監視線と第2の監視線との間の監視領域への対象の出入りの数を計測する監視部と、
前記ステレオ画像を解析して、踏切の遮断棒が下りたことを認識したとき、前記監視領域内の対象の数がゼロでないとき、所定の警報(電子メールの送信、警告音声の出力や送信、画像出力、監視員への警告、運転者への警告、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
The monitoring system (apparatus) according to the second invention is
A monitoring system including first and second stereo cameras and a server,
The first stereo camera is
An imaging unit that captures a stereo image;
A position measurement unit (such as GPS) that measures the position of the device itself;
A direction measuring unit (such as a triaxial geomagnetic sensor) that measures the direction of the imaging unit of the device itself;
A communication unit that transmits the stereo image, the position, and the direction to the server;
Have
The second stereo camera is
An imaging unit that captures a stereo image;
A position measurement unit (such as GPS) that measures the position of the device itself;
A direction measuring unit (such as a triaxial geomagnetic sensor) that measures the direction of the imaging unit of the device itself;
A communication unit that transmits the stereo image, the position, and the direction to the server;
Have
The server is
A communication unit that receives the stereo image, the position, and the direction transmitted from the first and second stereo cameras;
An acquisition unit that acquires civil engineering information relating to a crossing of the position and / or a road in the first and second stereo cameras;
Based on the position, the direction, and the civil engineering information in the first and second stereo cameras, the coordinates of the stop line for the crossing in the stereo image or the block of the blocking bar at the time of blocking are obtained, and the coordinates in the stereo image A monitoring line setting unit for setting first and second monitoring lines corresponding to the coordinates;
Analyzing the stereo image, recognizing an object passing through the set first and second monitoring lines, and entering and exiting the object into a monitoring area between the first monitoring line and the second monitoring line A monitoring unit for measuring the number;
When analyzing the stereo image and recognizing that the crossing bar is lowered, when the number of objects in the monitoring area is not zero, a predetermined alarm (e-mail transmission, warning sound output or transmission, An alarm output unit that outputs image output, warnings to supervisors, warnings to drivers, reports to security companies and police, etc.,
Having
It is characterized by that.

また、第3の発明による監視システム(装置)は、
前記サーバが、
前記認識した対象を解析し、対象の種類(人(子供、大人など)、車、自転車、ベビーカー、動物など)を特定する、対象特定部を、さらに有し、
前記監視部が、
前記監視領域内の対象の種類別の数を計測する、
ことを特徴とする。
A monitoring system (apparatus) according to the third invention is
The server is
Analyzing the recognized object, further specifying a target type (person (child, adult, etc.), car, bicycle, stroller, animal, etc.),
The monitoring unit is
Measure the number of types of objects in the monitoring area,
It is characterized by that.

上述したように本発明の解決手段をシステム(装置)として説明してきたが、本発明はこれらに実質的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。なお、下記の方法やプログラムの各ステップは、データの処理においては必要に応じて、CPU、DSPなどの演算処理装置を使用するものであり、入力したデータや加工・生成したデータなどを磁気テープ、HDD、メモリなどの記憶装置に格納するものである。   As described above, the solution of the present invention has been described as a system (apparatus). However, the present invention can also be realized as a method, a program, and a storage medium storing the program, which are substantially equivalent to these. It should be understood that these are included in the scope of the invention. Each step of the following methods and programs uses an arithmetic processing unit such as a CPU or DSP as needed for data processing. The input data, processed / generated data, etc. It is stored in a storage device such as an HDD or a memory.

例えば、本発明をプログラムとして実現させた、方法をコンピュータに実行させる第4の発明による監視プログラムは、
1つまたは複数の演算処理装置を第1〜3の発明に記載の監視システムとして機能させることを特徴とする。
For example, the monitoring program according to the fourth aspect of the present invention that causes the present invention to be executed as a program and that causes a computer to execute the method is as follows:
One or a plurality of arithmetic processing units are caused to function as the monitoring system according to the first to third aspects of the invention.

また、例えば、本発明をコンピュータ可読な記録媒体として実現させた、第5の発明によるコンピュータ可読な記録媒体プログラムは、
第4の発明の監視プログラムを格納した記憶媒体である。
In addition, for example, a computer-readable recording medium program according to the fifth invention, which realizes the present invention as a computer-readable recording medium,
A storage medium storing the monitoring program of the fourth invention.

本発明によれば、監視領域を直接監視することなく、2つの監視カメラによって構築された仮想的な監視領域(踏切のような危険領域)の対象をカウントすることが可能となり、監視領域内を監視することが可能となる。   According to the present invention, it is possible to count objects in a virtual monitoring area (dangerous area such as a railroad crossing) constructed by two monitoring cameras without directly monitoring the monitoring area. It becomes possible to monitor.

図1は、本発明の一実施態様による監視システムの概要を示すブロック図である。FIG. 1 is a block diagram showing an overview of a monitoring system according to an embodiment of the present invention. 図2は、図1に示したシステムで実行される処理の一例を示すシーケンス図である。FIG. 2 is a sequence diagram showing an example of processing executed in the system shown in FIG. 図3は、図1に示したシステムのサーバで実行される処理の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of processing executed by the server of the system shown in FIG. 図4は、本発明の一実施態様による監視システムが監視する場所の模式図である。FIG. 4 is a schematic diagram of a place monitored by the monitoring system according to an embodiment of the present invention. 図5は、本発明の一実施態様による監視システムが監視する実際の場所と、システム内での当該場所の認識の模式図である。FIG. 5 is a schematic diagram of an actual location monitored by the monitoring system according to an embodiment of the present invention and recognition of the location in the system. 図6は、本発明の一実施態様による監視システムが認識する監視ゾーンの模式図である。FIG. 6 is a schematic diagram of a monitoring zone recognized by the monitoring system according to an embodiment of the present invention. 図7は、本システムの対象の種類の集計手法を説明する模式図である。FIG. 7 is a schematic diagram for explaining the aggregation method of the target type of this system. 図8は、本システムの対象の種類の集計手法を説明する模式図である。FIG. 8 is a schematic diagram for explaining the aggregation method of the target type of this system. 図9は、本システムの対象の種類を説明する模式図である。FIG. 9 is a schematic diagram for explaining the types of objects of the present system.

以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施態様による監視システムの概要を示すブロック図である。図に示すように、監視システムMS1は、ステレオカメラSC1とサーバSV1とを含むものである。サーバSV1は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部(図示せず)、出力部(図示せず)、通信部COM、記憶部MEM、および、表示部DISを有する。ステレオカメラSCは、制御部(CPU、演算処理装置、プロセッサ、図示せず)、通信部COMを有するが、さらに、入力部(図示せず)、出力部(図示せず)、記憶部(図示せず)および、表示部(図示せず)を有してもよい。ステレオカメラとは、複数(通常は2つ)のカメラ(撮像部)で複数(通常は2つ)の画像を撮影するものである。通常は、2つのカメラの光軸が平行なもので対象物を同時に撮影するものである。また、これで撮影した2つの画像をステレオ画像といい、さらに、これら2つの画像から様々な処理をした画像、処理後の情報セット、また、これらを組み合わせたものもステレオ画像に含まれる。3眼以上のカメラで撮影した3眼ステレオ画像であってもよい。また、カメラは、夜間でも僅かな環境中の光で撮影可能な高性能な機種を使用することが好適である。   FIG. 1 is a block diagram showing an overview of a monitoring system according to an embodiment of the present invention. As shown in the figure, the monitoring system MS1 includes a stereo camera SC1 and a server SV1. The server SV1 includes a control unit (CPU, arithmetic processing unit, processor) CON, an input unit (not shown), an output unit (not shown), a communication unit COM, a storage unit MEM, and a display unit DIS. The stereo camera SC includes a control unit (CPU, arithmetic processing unit, processor, not shown) and a communication unit COM, and further includes an input unit (not shown), an output unit (not shown), and a storage unit (see FIG. And a display unit (not shown). A stereo camera captures a plurality (usually two) of images with a plurality (usually two) of cameras (imaging units). Usually, the optical axes of two cameras are parallel, and an object is photographed simultaneously. The two images thus taken are called stereo images, and further, images obtained by performing various processes from these two images, post-processing information sets, and combinations of these are also included in the stereo images. It may be a trinocular stereo image taken by a camera with three or more eyes. In addition, it is preferable to use a high-performance camera capable of photographing with light in a slight environment even at night.

ステレオカメラSC1が、ステレオ画像を撮像する撮像部CAMと、自装置の位置を測定する位置測定部(GPSなど)と、自装置の撮像部の方向を測定する方向測定部DIM(3軸地磁気センサなど)と、前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部COMとを有する。   The stereo camera SC1 has an imaging unit CAM that captures a stereo image, a position measurement unit (such as GPS) that measures the position of its own device, and a direction measurement unit DIM (3-axis geomagnetic sensor that measures the direction of the imaging unit of its own device. And the communication unit COM that transmits the stereo image, the position, and the direction to the server.

ステレオカメラSC2は、ステレオカメラSC2の構成要素と同様のものを持ち、特に指摘しない限り、同じ処理を行うことが可能である。異なる点は、撮影している箇所が、同じ踏切の別サイドから踏切の遮断棒や停止線を撮影している点である。   The stereo camera SC2 has the same components as the stereo camera SC2, and can perform the same processing unless otherwise specified. The difference is that the shooting location is shooting a crossing bar and a stop line from another side of the same level crossing.

サーバSV1が、第1と第2のステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向をそれぞれ受信する通信部COMと、第1と第2のステレオカメラにおける前記位置の踏切および/または道路に関する土木情報を取得する取得部ACQと、第1と第2のステレオカメラにおける前記位置、前記方向、および、前記土木情報に基づき、前記ステレオ画像内における踏切に対する停止線または遮断時の遮断棒の座標を求め、前記ステレオ画像内において該座標に対応した第1と第2の監視線を設定する監視線設定部MLSと、前記ステレオ画像を解析して、前記設定した第1と第2の監視線を通過する対象を認識し、第1の監視線と第2の監視線との間の監視領域への対象の出入りの数を計測する監視部MONと、前記ステレオ画像を解析して、踏切の遮断棒が下りたことを認識したとき、前記監視領域内の対象の数がゼロでないとき、所定の警報(電子メールの送信、警告音声の出力や送信、画像出力、監視員への警告、運転者への警告、警備会社や警察などへの通報など)を出力する警報出力部WOTと、を有する、   The server SV1 receives the stereo image, the position, and the direction transmitted from the first and second stereo cameras, respectively, the crossing of the position in the first and second stereo cameras, Based on the acquisition unit ACQ for acquiring civil engineering information on the road, the position and the direction in the first and second stereo cameras, and the civil engineering information, a stop line for the railroad crossing in the stereo image or at the time of interruption The coordinates of the blocking bar are obtained, the monitoring line setting unit MLS for setting the first and second monitoring lines corresponding to the coordinates in the stereo image, the stereo image is analyzed, and the set first and second monitoring lines are analyzed. A monitoring unit MON for recognizing an object passing through two monitoring lines and measuring the number of objects entering and exiting the monitoring area between the first monitoring line and the second monitoring line; When analyzing the stereo image and recognizing that the railroad crossing bar has been lowered, when the number of objects in the monitoring area is not zero, a predetermined alarm (e-mail transmission, warning sound output or transmission, An alarm output unit WOT for outputting image output, warning to a supervisor, warning to a driver, notification to a security company or police, etc.,

また、制御部CONは、ステレオ画像(2つの画像)のうちの特定領域(対象が存在する部分など)と自装置との距離を、既知のステレオ画像距離解析技法などを用いて、算出する距離算出部DEを含む。距離算出部や監視線設定部などは、ソフトウェアで実現してもよいが、回路化してハードウェアとして実現する方がより高速処理可能となる。表示部DISは、本装置に格納される情報や生成された情報を表示することができる。距離算出部が算出した距離によって、対象が位置する3次元座標を正確に認識でき、対象の高さや形状、大きさを認識することが可能となる。   In addition, the control unit CON calculates a distance between a specific area (such as a part where the target exists) in the stereo image (two images) and the own apparatus using a known stereo image distance analysis technique or the like. A calculation unit DE is included. The distance calculation unit, the monitoring line setting unit, and the like may be realized by software, but it is possible to perform processing at higher speed when realized as hardware by circuitization. The display unit DIS can display information stored in the apparatus and generated information. Based on the distance calculated by the distance calculation unit, the three-dimensional coordinates where the object is located can be accurately recognized, and the height, shape, and size of the object can be recognized.

サーバSV1の制御部に含まれる各機能部は、制御部のメモリ空間に読み込まれたプログラムモジュールによって実現することが好適である。これは、ステレオカメラSC1,SC2は、制御部は図示していないが、制御部のメモリ空間に読み込まれたプログラムモジュールによって各機能部を実現したり、内臓ずるGPSユニットやカメラユニットなどで各機能部を実現したりすることが可能である。通常は、記憶部或いはウェブサイトから、プロセッサを本装置の各部として機能させるソフトウェアをダウンロードして、PCにインストールして起動することで、PCが、本装置として動作する。なお、制御部に設けた各機能部は、機能上一定のまとまりのあるステップを1つにまとめたものに過ぎず、複数の機能部を1つの機能部にしたり、その一部を他の機能部に組み入れたり、他の独立した機能部に分割したりすることが可能である。   Each functional unit included in the control unit of the server SV1 is preferably realized by a program module read into the memory space of the control unit. Stereo cameras SC1 and SC2 do not show a control unit, but each function unit is realized by a program module read into the memory space of the control unit, or each function is implemented by a built-in GPS unit or camera unit. Can be realized. Normally, the PC operates as the apparatus by downloading software that causes the processor to function as each unit of the apparatus from a storage unit or a website, and installing and starting the software on the PC. In addition, each function part provided in the control part is merely a set of functionally integrated steps, and a plurality of function parts can be combined into one function part, or a part of them can be used for other functions. It can be incorporated into a part or divided into other independent functional parts.

このように、生成・抽出した情報や中間データおよび取得したデータを外部に送信したり、表示部に表示したり、生成・抽出した情報や中間データおよび取得したデータなどを記憶部に格納したりすることは、後述する他の実態態様でも同様に可能であることに注意されたい。なお、本装置は、汎用コンピュータ、特定用途コンピュータ、サーバ、PC、スマートフォンなどの携帯端末などのコンピュータ、或いは、本装置の機能や処理手順(方法)をコンピュータ上で実現(実行)するプログラムモジュールをコンピュータが持つCPUや記憶部に保持したり、外部のサーバやストレージから読み込んだりすることで、コンピュータ上に本装置を構築することが好適であり、後続の各実施態様においても同様である。また、各機能部は、ネットワークで接続された別個のコンピュータや装置に分散させてもよい。また、複数の機能部を1つにしたり、処理ステップの一部を他の機能部にさせたりするような形態でもよい。さらに、本実施態様では、サーバとステレオカメラを別個のものとして規定したが、ステレオカメラ内にサーバの各機能の一部または全てを含ませてもよい。   In this way, the generated / extracted information, intermediate data, and acquired data are transmitted to the outside, displayed on the display unit, and the generated / extracted information, intermediate data, acquired data, etc. are stored in the storage unit. It should be noted that this can be done in other manners described later as well. The apparatus is a computer such as a general-purpose computer, a special purpose computer, a server, a personal computer such as a PC or a smartphone, or a program module that implements (executes) the functions and processing procedures (methods) of the apparatus on the computer. It is preferable to construct this apparatus on a computer by holding it in a CPU or storage unit of the computer or reading it from an external server or storage, and the same applies to each of the following embodiments. In addition, each functional unit may be distributed to separate computers and devices connected via a network. Moreover, the form which makes a some function part one, or makes a part of process step another function part may be sufficient. Further, in this embodiment, the server and the stereo camera are defined as separate ones, but some or all of the functions of the server may be included in the stereo camera.

また、制御部は、前記認識した対象を解析し、対象の種類を特定する、対象特定部SDを、さらに有する。そして、監視部が、前記監視領域内の対象の種類別の数を計測する。   The control unit further includes a target specifying unit SD that analyzes the recognized target and specifies the type of the target. And a monitoring part measures the number according to the kind of object in the said monitoring area | region.

図2は、図1に示したシステムで実行される処理の一例を示すシーケンス図である。図に示すように、ステレオカメラSC1、SC2,サーバSV1,CIM情報サーバCIM1の4つの装置が連携して処理を行う。CIM情報サーバCIM1や他のサーバにある土木情報をサーバSV1が一旦格納しておけば、CIM情報サーバCIM1との連携は不要とすることも可能である。   FIG. 2 is a sequence diagram showing an example of processing executed in the system shown in FIG. As shown in the figure, the four devices of the stereo cameras SC1, SC2, server SV1, and CIM information server CIM1 perform processing in cooperation. Once the civil engineering information in the CIM information server CIM1 and other servers is stored in the server SV1, the cooperation with the CIM information server CIM1 can be made unnecessary.

ステレオカメラSC1、SC2のステップS11にて、撮像部CAMが、ステレオ画像を撮像する。ちなみに、撮像は、継続的に行ってもよいが、通信量や処理量を低減するために、フレームを間引きしたり、静止画を数秒間隔で実施したりすることが好適である。次に、ステップS12にて、位置測定部POMが自装置の位置を測定する。次に、ステップS13にて、方向測定部DIMが、自装置の撮像部の方向を測定する。次に、ステップS14にて、通信部COMが、ステレオ画像、位置、および、方向をサーバに送信する。このとき、カメラの撮像設定値(画角、ズーム、画素数、など)を併せて送信することが好適である。なお、ステレオ画像、位置、および、方向は、まとめて送信してもよいし、個別に送信してもよい。   In step S11 of the stereo cameras SC1 and SC2, the imaging unit CAM captures a stereo image. Incidentally, although imaging may be performed continuously, it is preferable to thin out frames or to execute still images at intervals of several seconds in order to reduce the communication amount and the processing amount. Next, in step S12, the position measurement unit POM measures the position of the own device. Next, in step S13, the direction measuring unit DIM measures the direction of the imaging unit of the own device. Next, in step S14, the communication unit COM transmits the stereo image, position, and direction to the server. At this time, it is preferable to transmit together the imaging setting values (view angle, zoom, number of pixels, etc.) of the camera. In addition, a stereo image, a position, and a direction may be transmitted collectively, and may be transmitted separately.

この後、処理はサーバSV1に移る。サーバSV1のステップV11にて、通信部COMが、ステレオカメラから送信されたステレオ画像、位置、および、方向を受信する。次に、ステップV12にて、取得部ACQは、位置に関する踏切または道路の土木情報(交通施設情報でもよい)をCIM情報サーバCIM1に送信する。或いは、取得部ACQは、受信した位置に関する土木情報を自装置内の記憶部MEMから読み出して取得してもよい。   Thereafter, the process proceeds to the server SV1. In step V11 of the server SV1, the communication unit COM receives a stereo image, a position, and a direction transmitted from the stereo camera. Next, in step V12, the acquisition unit ACQ transmits the railroad crossing regarding the position or the civil engineering information of the road (may be transportation facility information) to the CIM information server CIM1. Alternatively, the acquisition unit ACQ may read and acquire the civil engineering information related to the received position from the storage unit MEM in its own device.

この後、処理はCIM情報サーバCIM1に移る。CIM情報サーバCIM1のステップR11にて、位置に関する土木情報を受信する。そして、ステップR12にて、位置(住所、緯度・経度など絶対座標など)に基づき、敷地情報(緯度、経度、敷地の形状、面積、矩形の場合は、四隅の座標など)を読み出す。ステップR13にて、読み出した敷地情報をサーバSV1に送信する。   Thereafter, the processing moves to the CIM information server CIM1. In step R11 of the CIM information server CIM1, civil engineering information relating to the position is received. In step R12, site information (latitude, longitude, site shape, area, and, in the case of a rectangle, four corner coordinates, etc.) is read based on the position (address, latitude, longitude, and other absolute coordinates). In step R13, the read site information is transmitted to server SV1.

この後、処理はサーバSV1に戻る。サーバSV1は、敷地情報を受信し、その後、ステップV13にて、監視線設定部MLSが、位置、方向、および、敷地情報に基づき、ステレオ画像内における敷地の輪郭の少なくとも一部を形成する境界線(境界の各座標)を求め、ステレオ画像内において該境界線を監視線に設定する。そして、ステップV14にて、監視部MONは、ステレオ画像を解析して、設定した監視線を通過する対象を認識する。最後に、ステップV15にて、監視部MONまたは警報出力部WOTは、遮断棒が下りたときに、監視線で挟まれた監視領域の対象の数がゼロでないとき所定の警報を出力する(電子メールの送信、警告音声の出力や送信、警備会社や警察などへの通報など)。或いは、撮影した画像を鉄道事業者の携帯端末に送信してもよい。   Thereafter, the process returns to the server SV1. The server SV1 receives the site information, and then in step V13, the monitoring line setting unit MLS forms at least a part of the site outline in the stereo image based on the position, direction, and site information. A line (each coordinate of the boundary) is obtained, and the boundary line is set as a monitoring line in the stereo image. In step V14, the monitoring unit MON analyzes the stereo image and recognizes an object that passes through the set monitoring line. Finally, in step V15, the monitoring unit MON or the alarm output unit WOT outputs a predetermined alarm when the number of targets in the monitoring area sandwiched between the monitoring lines is not zero when the blocking bar is lowered (electronic Sending emails, outputting and sending warning voices, reporting to security companies and police, etc.). Or you may transmit the image | photographed image to a railway operator's portable terminal.

なお、ステップV14とV15との間に、何らかのさらなる判定条件を付加してもよい。例えば、本サーバは、監視線を通過した対象の高さを求める機能があり、これを用いて、高さ40cm〜150cmのものだけ(子供だけ)、150cm〜190cm(即ち、大人)だけ、ステップV15に進ませ、それ以外は、除外するようにしてもよい。これによって、これらに該当しない犬、猫、鳥、虫などの小動物を効果的に除外することが可能となる。   Note that some further determination condition may be added between steps V14 and V15. For example, this server has a function for obtaining the height of an object that has passed through the monitoring line, and using this function, only those having a height of 40 cm to 150 cm (only for children) and 150 cm to 190 cm (that is, adults) are stepped. You may make it go to V15 and exclude it otherwise. This makes it possible to effectively exclude small animals such as dogs, cats, birds, and insects that do not fall under these.

また、ドップラーセンサーをカメラやその近傍に設置し、監視線を通過した対象の心拍数を測定し、人間の心拍数の範囲のものだけステップV15に進ませ、それ以外は、除外するようにしてもよい。これによって、犬、猫、鳥、虫などの小動物を効果的に除外することが可能となる。   Also, install a Doppler sensor near the camera, measure the heart rate of the target that has passed through the monitoring line, advance only to the range of human heart rate, go to step V15, and exclude others Also good. This makes it possible to effectively exclude small animals such as dogs, cats, birds, and insects.

図3は、図1に示したシステムのサーバで実行される処理の一例を示すフローチャートである。図に示すように、ステップV21では、監視線1と、監視線2とを設定すべき箇所が写っているステレオカメラで撮影した画像(映像)を取得する。ステップV22では、画像内において、監視線1と監視線2とを設定する。次に、ステップV23では、取得した画像を解析し、監視線1,2を通過する対象(人、車、ものなど)を認識し、対象の出入を計測する。次に、ステップV24では、認識した対象を解析し、対象の種別(人(子供、大人など)、車、自転車、ベビーカー、動物など)を特定する。続いて、ステップV25では、監視線1と、監視線2との間の領域に存在する対象の数をカウントする。次に、ステップV26では、遮断機(棒)が下りたかを画像または外部からの制御信号で判定する。遮断機(棒)が下りていない場合は、ステップV23に戻り、ステップV23−V26を繰り返す。遮断機(棒)が下りている場合は、ステップV27に進む。次に、ステップV27では、監視領域内に対象が存在するかを判定する(即ち、対象の数がゼロか否かを検査する)。監視領域内に対象が存在する場合は、異常ありとみなし、ステップV29に進み、警告、緊急停止、映像を出力する。監視領域内に対象が存在しない場合は、安全とみなし、ステップV29に進む。ステップV27の条件を満たさない場合は、直接ステップV29に進み、満たす場合は、ステップV28を経てステップV29に進み、遮断機(棒)が上がったかを判定し、遮断機(棒)が上がったときにステップV30に進み、領域に存在する対象(の数)をクリアーして、また、ステップV23へと処理を戻す。なお、遮断機(遮断棒)の上げ、下げ(踏切への進入可、進入不可)の情報は鉄道情報サーバRWISからネットワークを介して取得し、また、監視領域の対象の数がゼロでない情報(危険情報、警告情報など)は、逆に、本システムから鉄道情報サーバRWISや当該踏切へ近づく鉄道車両に送信することが好適である。また、このとき、カメラで撮影されている画像情報や、踏み切り部分を撮影しているカメラがあればその画像情報を同様に送信してもよい。   FIG. 3 is a flowchart showing an example of processing executed by the server of the system shown in FIG. As shown in the figure, in step V21, an image (video) taken with a stereo camera in which the locations where the monitoring line 1 and the monitoring line 2 are to be set is captured. In step V22, the monitoring line 1 and the monitoring line 2 are set in the image. Next, in step V23, the acquired image is analyzed, the object (person, car, thing, etc.) passing through the monitoring lines 1 and 2 is recognized, and the entry / exit of the object is measured. Next, in step V24, the recognized target is analyzed, and the type of the target (person (child, adult, etc.), car, bicycle, stroller, animal, etc.) is specified. Subsequently, in step V25, the number of objects existing in the area between the monitoring line 1 and the monitoring line 2 is counted. Next, in step V26, it is determined by an image or an external control signal whether the breaker (bar) has been lowered. When the circuit breaker (bar) is not lowered, the process returns to Step V23 and Steps V23 to V26 are repeated. If the circuit breaker (bar) is down, the process proceeds to step V27. Next, in Step V27, it is determined whether or not there are objects in the monitoring area (that is, whether or not the number of objects is zero). If there is an object in the monitoring area, it is considered that there is an abnormality, and the process proceeds to Step V29 to output a warning, emergency stop, and video. If there is no target in the monitoring area, it is considered safe and the process proceeds to step V29. If the condition of step V27 is not satisfied, the process proceeds directly to step V29. If satisfied, the process proceeds to step V29 via step V28, where it is determined whether the breaker (bar) is raised, and the breaker (bar) is raised. Then, the process proceeds to step V30, the object (number) existing in the area is cleared, and the process returns to step V23. In addition, information on raising / lowering of the breaker (bar breaker) (possible to enter the railroad crossing, entry not allowed) is obtained from the railway information server RWIS via the network, and information on the number of objects in the monitoring area is not zero ( Danger information, warning information, etc.), on the contrary, is preferably transmitted from the present system to the railway information server RWIS or a railway vehicle approaching the railroad crossing. At this time, if there is image information captured by the camera or a camera capturing the crossing part, the image information may be transmitted in the same manner.

図4は、本発明の一実施態様による監視システムが監視する場所の模式図である。図に示すように、道路RDと交差する線路RLとで構成される踏切周辺が監視の対象である。上のシーンSCN1は、遮断棒が上がっており、歩行者や車両が通行可能な状態である。下のシーンSCN2は、遮断棒が下りており、歩行者や車両が通行不可(進入不可)の状態である。そして、シーンSCN1、シーンSCN2ともに、線路RLを挟んで道路RDの左側には、停止線SP1があり、右側には、停止線SP2がある。同様に、道路RDの左側には、遮断機SHM1,それに付属する遮断棒SHB1があり、線路RLを挟んで右側には、遮断機SHM2,それに付属する遮断棒SHB2がある。ステレオカメラSC1は、道路RDの左側にある停止線SP1、遮断棒SHB1を撮影する。ステレオカメラSC2は、道路RDの左側にある停止線SP2、遮断棒SHB2を撮影する。   FIG. 4 is a schematic diagram of a place monitored by the monitoring system according to an embodiment of the present invention. As shown in the figure, the area around the railroad crossing composed of a road RD and a crossing line RL is a monitoring target. In the upper scene SCN1, the blocking bar is raised, and a pedestrian or vehicle can pass through. The lower scene SCN2 is a state in which the blocking bar is descending and pedestrians and vehicles cannot pass (impossible to enter). In both the scenes SCN1 and SCN2, there is a stop line SP1 on the left side of the road RD across the track RL, and there is a stop line SP2 on the right side. Similarly, on the left side of the road RD, there is a breaker SHM1 and a breaker bar SHB1 attached to it, and on the right side of the track RL, there is a breaker SHM2 and a breaker bar SHB2 attached to it. Stereo camera SC1 images stop line SP1 and blocking bar SHB1 on the left side of road RD. Stereo camera SC2 images stop line SP2 and blocking bar SHB2 on the left side of road RD.

図5は、本発明の一実施態様による監視システムが監視する実際の場所と、システム内での当該場所の認識の模式図である。図に示すように、シーンSCN2は、遮断棒が下りており、歩行者や車両が通行不可の状態である。本システムは、自動または手動で監視線ML1、監視線ML2を設定する。監視線は、好適には、下りた遮断棒と、踏切内の線路との間(遮断棒から30−50cm程度離れた位置が好適である)に設定する。システム内の認識であるシーンR−SCN1に示すように、監視線ML1と監視線ML2との間に仮想的な監視ゾーンZN1(踏切内の領域)を構成する。ステレオカメラSC1,SC2と、本システムの各部から、仮想の対象カウント装置であるピープルカウンターPEC1と、ピープルカウンターPEC2とを構成させる。ピープルカウンターPEC1と、ピープルカウンターPEC2とは、それぞれの監視線ML1、ML2を通過する対象のイン(ゾーンへの進入)、アウト(ゾーンへからの退出)の数をカウントする。また、ピープルカウンターPEC1と、ピープルカウンターPEC2とは、対象の高さを計測することが可能であり、これにより、対象が大人、子供などを判別することも可能である。さらに、本システム内の画像情報法II(実際の画像、形状情報、特徴量の情報など)とマッチングすることにより、対象が車両か、人間か、自転車か、ベビーカーかなども判別して、種類別にカウントすることが可能である。また、本システムは、ピープルカウンターPEC1と、ピープルカウンターPEC2とのイン、アウトの数を加算、減算することにより監視ゾーン内の対象の数を計測することが可能である。即ち、監視ゾーンを直接監視することなく、監視線の箇所を2ヵ所、監視することによって、監視ゾーンを監視することを可能ならしめるものである。
ゾーン内人数=ピープルカウンターPEC1と、ピープルカウンターPEC2
FIG. 5 is a schematic diagram of an actual location monitored by the monitoring system according to an embodiment of the present invention and recognition of the location in the system. As shown in the figure, the scene SCN2 is in a state in which the blocking bar is down and pedestrians and vehicles cannot pass. In this system, the monitoring line ML1 and the monitoring line ML2 are set automatically or manually. The monitoring line is preferably set between the descending blocking bar and the track in the railroad crossing (a position approximately 30-50 cm away from the blocking bar is preferable). As shown in the scene R-SCN1, which is recognition in the system, a virtual monitoring zone ZN1 (region within a railroad crossing) is formed between the monitoring line ML1 and the monitoring line ML2. The stereo cameras SC1 and SC2 and each part of the present system constitute a people counter PEC1 and a people counter PEC2, which are virtual target counting devices. The people counter PEC1 and the people counter PEC2 count the number of ins (entering into the zone) and outs (exiting from the zone) that pass through the respective monitoring lines ML1 and ML2. In addition, the people counter PEC1 and the people counter PEC2 can measure the height of the object, and thereby can determine whether the object is an adult or a child. Furthermore, by matching with the image information method II (actual image, shape information, feature amount information, etc.) in this system, it is possible to determine whether the target is a vehicle, a human being, a bicycle, a stroller, etc. It is possible to count separately. Moreover, this system can measure the number of objects in the monitoring zone by adding and subtracting the number of ins and outs of the people counter PEC1 and people counter PEC2. That is, the monitoring zone can be monitored by monitoring two monitoring lines without directly monitoring the monitoring zone.
Number of people in the zone = People counter PEC1 and People counter PEC2

図6は、本発明の一実施態様による監視システムが認識する監視ゾーンの模式図である。システム内の認識であるシーンR−SCN1に示すように、監視線ML1と監視線ML2との間に仮想的な監視ゾーンZN1(踏切内の領域)を構成する。シーンR−SCN1では、ゾーン内の人数は0人である。システム内の認識であるシーンR−SCN11では、左から監視線ML1を越えて監視ゾーンに進入した対象2人と、右から監視線ML2を越えて監視ゾーンに進入した対象2人とがいる。ピープルカウンターPEC1と、ピープルカウンターPEC2とのイン、アウトの数を加算、減算することにより監視ゾーン内の対象の数は、4人であるとカウントされている。   FIG. 6 is a schematic diagram of a monitoring zone recognized by the monitoring system according to an embodiment of the present invention. As shown in the scene R-SCN1, which is recognition in the system, a virtual monitoring zone ZN1 (region within a railroad crossing) is formed between the monitoring line ML1 and the monitoring line ML2. In scene R-SCN1, the number of people in the zone is zero. In the scene R-SCN11 which is recognition in the system, there are two subjects who have entered the monitoring zone from the left over the monitoring line ML1 and two subjects who have entered the monitoring zone from the right across the monitoring line ML2. By adding and subtracting the number of ins and outs of the people counter PEC1 and people counter PEC2, the number of objects in the monitoring zone is counted as four.

次に、システム内の認識であるシーンR−SCN12では、左から監視線ML1を越えて監視ゾーンに進入した対象2人は、監視線ML2を越えて監視ゾーンから退出し、さらに、右から監視線ML2を越えて監視ゾーンに進入した対象2人は、監視線ML1を越えて監視ゾーンから退出した。さらに、左から監視線ML1を越えて監視ゾーンに進入した対象SBJ1だけが監視ゾーンに存在している。本システムは。ピープルカウンターPEC1と、ピープルカウンターPEC2とのイン、アウトの数を加算、減算することにより監視ゾーン内の対象の数は、1人であるとカウントしている。このとき、遮断棒が下りていれば、ゾーン内人数がゼロでないため、危険とみなし、警告や緊急停止信号を外部のシステム(鉄道情報サーバなど)に出力する。   Next, in the scene R-SCN12 which is recognition in the system, two subjects who have entered the monitoring zone from the left after crossing the monitoring line ML1 leave the monitoring zone via the monitoring line ML2, and are further monitored from the right. The two subjects who entered the monitoring zone over the line ML2 exited the monitoring zone over the monitoring line ML1. Furthermore, only the target SBJ1 that has entered the monitoring zone from the left across the monitoring line ML1 exists in the monitoring zone. This system. By adding and subtracting the number of ins and outs of the people counter PEC1 and people counter PEC2, the number of objects in the monitoring zone is counted as one. At this time, if the blocking bar is down, the number of people in the zone is not zero, so it is considered dangerous, and a warning or emergency stop signal is output to an external system (such as a railway information server).

図7は、本システムの対象の種類の集計手法を説明する模式図である。図に示すように、ピープルカウンターPEC1は、対象の進入数をイン1として、退出数をアウト1としてカウントする。同様にピープルカウンターPEC2は、対象の進入数をイン2として、退出数をアウト2としてカウントする。そして、その対象を大分類MGR1として、車両、人、として種類別に数を記録する。そして、さらに、小分類としてNBR1として、車両をさらに詳細に車、バイク・自転車として種類別に数を記録する。また、大分類の人も、さらに詳細に大人、子供として種類別に数を記録する。大人と子供の分類は身長で判断することが好適である。また、車両の種類は、画像データベースによって判別することが好適である。そして、最終的には、遮断棒が下りた時点でゾーン内の対象の数がゼロの場合に、その後で、遮断棒を上がるのを確認した際に、ゾーン内の数をクリアーし、処理を終える。   FIG. 7 is a schematic diagram for explaining the aggregation method of the target type of this system. As shown in the figure, the people counter PEC1 counts the target entry number as in 1 and the exit number as out 1. Similarly, the people counter PEC2 counts the target entry number as in 2 and the exit number as out 2. And the number is recorded according to the kind as a vehicle and a person by making the object into large classification MGR1. Further, the number is recorded for each type of vehicle, motorcycle / bicycle in more detail as NBR1 as a small classification. In addition, people of large classifications also record numbers by type as adults and children in more detail. The classification of adults and children is preferably judged by height. Further, it is preferable to determine the type of vehicle from an image database. And finally, when the number of objects in the zone is zero when the blocking bar descends, when it is confirmed that the blocking bar goes up later, the number in the zone is cleared and the process is performed. Finish.

図8は、本システムの対象の種類の集計手法を説明する模式図である。図に示すように、ピープルカウンターPEC1は、対象の進入数をイン1として、退出数をアウト1としてカウントする。同様にピープルカウンターPEC2は、対象の進入数をイン2として、退出数をアウト2としてカウントする。図では、監視ソーン内には、子供の対象SBJ2と、車の対象SBJ3とが存在している。これは、上述したようにピープルカウンターPEC1とピープルカウンターPEC2とのイン、アウトの数の加算、減算により求めたものである。
ゾーン内の数:2
(=イン1+イン2−アウト1−アウト2)
このように、遮断棒が下りた時点にゾーン内の対象の数がゼロでないときは、本システムは、警告、緊急停止などの信号を出力する。
FIG. 8 is a schematic diagram for explaining the aggregation method of the target type of this system. As shown in the figure, the people counter PEC1 counts the target entry number as in 1 and the exit number as out 1. Similarly, the people counter PEC2 counts the target entry number as in 2 and the exit number as out 2. In the figure, a child target SBJ2 and a car target SBJ3 are present in the monitoring zone. As described above, this is obtained by adding and subtracting the number of ins and outs of the people counter PEC1 and people counter PEC2.
Number in zone: 2
(= In 1 + In 2-Out 1-Out 2)
As described above, when the number of objects in the zone is not zero when the blocking bar is lowered, the system outputs a signal such as a warning or an emergency stop.

図9は、本システムの対象の種類を説明する模式図である。図に示すように、大分類、小分類をさらに別の種類で計測・記録することが可能である。即ち、この例では、大分類として、車両、モノ、人、動物とを種類別に認識、記録することが可能である。そして、小分類として、車両は、車、バイク・自転車、モノはベビーカー、歩行器、人は大人と子供、動物は、犬・猫と、鳥、ネズミなどの種類別に認識、記録することが可能である。これは一例に過ぎず、分類の段階を3段階以上に設定したり、他の種類別に認識・記録することが可能である。   FIG. 9 is a schematic diagram for explaining the types of objects of the present system. As shown in the figure, it is possible to measure and record the major classification and the minor classification in yet another type. That is, in this example, it is possible to recognize and record vehicles, things, people, and animals by type as major classifications. As sub-categories, vehicles can be recognized and recorded by type, such as cars, bikes / bicycles, things can be strollers, walker, people can be adults and children, animals can be dogs / cats, birds, mice, etc. It is. This is only an example, and the classification stage can be set to three or more stages, or can be recognized and recorded by other types.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部、各ステップなどに含まれる処理や機能などは論理的に矛盾しないように再配置可能であり、複数の手段/部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。或いは、本発明による装置、方法、プログラムなどの一部の構成要素、機能、処理、ステップなどを遠隔地のサーバなどに配置することも可能であることに注意されたい。   Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and corrections based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, the processes and functions included in each unit and each step can be rearranged so as not to be logically contradictory, and a plurality of means / units and steps can be combined or divided into one. Is possible. Alternatively, it should be noted that some components, functions, processes, steps, etc. of the apparatus, method, program, etc. according to the present invention can be located in a remote server or the like.


ACQ 取得部
CAM 撮像部
CIM1 CIM情報サーバ
COM 通信部
CON 制御部
DE 距離算出部
DIM 方向測定部
DIS 表示部
II 画像情報法
MEM 記憶部
MGR1 大分類
ML1 監視線
ML2 監視線
MLS 監視線設定部
MON 監視部
MS1 監視システム
PEC1 ピープルカウンター
PEC2 ピープルカウンター
POM 位置測定部
RD 道路
RL 線路
RWIS 鉄道情報サーバ
SBJ1 対象
SBJ2 対象
SBJ3 対象
SC1,SC2 ステレオカメラ
SCN1 シーン
SCN2 シーン
SD 対象特定部
SHB1 遮断棒
SHB2 遮断棒
SHM1 遮断機
SHM2 遮断機
SP1 停止線
SP2 停止線
WOT 警報出力部
ZN1 監視ゾーン

ACQ acquisition unit CAM imaging unit CIM1 CIM information server COM communication unit CON control unit DE distance calculation unit DIM direction measurement unit DIS display unit II image information method MEM storage unit MGR1 large classification ML1 monitoring line ML2 monitoring line MLS monitoring line setting unit MON monitoring Part MS1 Monitoring system PEC1 People counter PEC2 People counter POM Position measurement part RD Road RL Line RWIS Railway information server SBJ1 Target SBJ2 Target SBJ3 Target SC1, SC2 Stereo camera SCN1 Scene SCN2 Scene SD Target specific part SHB1 Shutter bar SHM1 Shutter bar SHM1 SHM2 Breaker SP1 Stop line SP2 Stop line WOT Alarm output unit ZN1 Monitoring zone

Claims (5)

第1と第2のステレオカメラとサーバとを含む監視システムであって、
前記第1のステレオカメラが、
ステレオ画像を撮像する撮像部と、
前記ステレオ画像を前記サーバに送信する通信部と、
を有し、
前記第2のステレオカメラが、
ステレオ画像を撮像する撮像部と、
前記ステレオ画像を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記第1と第2のステレオカメラから送信された前記ステレオ画像、をそれぞれ受信する通信部と、
前記第1と第2のステレオカメラにおける前記ステレオ画像内において、踏切に対する停止線または遮断時の遮断棒に対応した第1と第2の監視線の設定を受け付ける監視線設定部と、
前記ステレオ画像を解析して、前記受け付けた第1と第2の監視線を通過する対象を認識し、第1の監視線と第2の監視線との間の監視領域への対象の出入りの数を計測する監視部と、
前記ステレオ画像を解析して、踏切の遮断棒が下りたことを認識したとき、前記監視領域内の対象の数がゼロでないとき、所定の警報を出力する警報出力部と、
を有する、
ことを特徴とする監視システム。
A monitoring system including first and second stereo cameras and a server,
The first stereo camera is
An imaging unit that captures a stereo image;
A communication unit for transmitting the stereo image to the server;
Have
The second stereo camera is
An imaging unit that captures a stereo image;
A communication unit for transmitting the stereo image to the server;
Have
The server is
A communication unit for receiving the stereo images transmitted from the first and second stereo cameras, and
A monitoring line setting unit for receiving setting of first and second monitoring lines corresponding to a stop line for a crossing or a blocking bar at the time of blocking in the stereo images in the first and second stereo cameras;
Analyzing the stereo image, recognizing an object passing through the received first and second monitoring lines, and entering and exiting the object into a monitoring area between the first monitoring line and the second monitoring line A monitoring unit for measuring the number;
Analyzing the stereo image, and recognizing that the crossing bar is down, when the number of objects in the monitoring area is not zero, an alarm output unit that outputs a predetermined alarm;
Having
A monitoring system characterized by that.
第1と第2のステレオカメラとサーバとを含む監視システムであって、
前記第1のステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部と、
自装置の撮像部の方向を測定する方向測定部と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記第2のステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部と、
自装置の撮像部の方向を測定する方向測定部と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記第1と第2のステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向をそれぞれ受信する通信部と、
前記第1と第2のステレオカメラにおける前記位置の踏切および/または道路に関する土木情報を取得する取得部と、
前記第1と第2のステレオカメラにおける前記位置、前記方向、および、前記土木情報に基づき、前記ステレオ画像内における踏切に対する停止線または遮断時の遮断棒の座標を求め、前記ステレオ画像内において該座標に対応した第1と第2の監視線を設定する監視線設定部と、
前記ステレオ画像を解析して、前記設定した第1と第2の監視線を通過する対象を認識し、第1の監視線と第2の監視線との間の監視領域への対象の出入りの数を計測する監視部と、
前記ステレオ画像を解析して、踏切の遮断棒が下りたことを認識したとき、前記監視領域内の対象の数がゼロでないとき、所定の警報を出力する警報出力部と、
を有する、
ことを特徴とする監視システム。
A monitoring system including first and second stereo cameras and a server,
The first stereo camera is
An imaging unit that captures a stereo image;
A position measuring unit for measuring the position of the own device;
A direction measuring unit that measures the direction of the imaging unit of the device itself;
A communication unit that transmits the stereo image, the position, and the direction to the server;
Have
The second stereo camera is
An imaging unit that captures a stereo image;
A position measuring unit for measuring the position of the own device;
A direction measuring unit that measures the direction of the imaging unit of the device itself;
A communication unit that transmits the stereo image, the position, and the direction to the server;
Have
The server is
A communication unit that receives the stereo image, the position, and the direction transmitted from the first and second stereo cameras;
An acquisition unit that acquires civil engineering information relating to a crossing of the position and / or a road in the first and second stereo cameras;
Based on the position, the direction, and the civil engineering information in the first and second stereo cameras, the coordinates of the stop line for the crossing in the stereo image or the block of the blocking bar at the time of blocking are obtained, and the coordinates in the stereo image A monitoring line setting unit for setting first and second monitoring lines corresponding to the coordinates;
Analyzing the stereo image, recognizing an object passing through the set first and second monitoring lines, and entering and exiting the object into a monitoring area between the first monitoring line and the second monitoring line A monitoring unit for measuring the number;
Analyzing the stereo image, and recognizing that the crossing bar is down, when the number of objects in the monitoring area is not zero, an alarm output unit that outputs a predetermined alarm;
Having
A monitoring system characterized by that.
請求項1または2に記載の監視システムにおいて、
前記サーバが、
前記認識した対象を解析し、対象の種類を特定する、対象特定部を、さらに有し、
前記監視部が、
前記監視領域内の対象の種類別の数を計測する、
ことを特徴とする監視システム。
The monitoring system according to claim 1 or 2,
The server is
Analyzing the recognized target and specifying the type of target, further comprising a target specifying unit,
The monitoring unit is
Measure the number of types of objects in the monitoring area,
A monitoring system characterized by that.
1つまたは複数の演算処理装置を請求項1〜3のおずれか1項に記載の監視システムとして機能させることを特徴とする監視プログラム。   A monitoring program for causing one or more arithmetic processing units to function as the monitoring system according to any one of claims 1 to 3. 請求項4に記載の監視プログラムを格納したコンピュータ可読な記憶媒体。   A computer-readable storage medium storing the monitoring program according to claim 4.
JP2017096104A 2017-05-14 2017-05-14 Surveillance systems, surveillance programs, and storage media Active JP7031817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017096104A JP7031817B2 (en) 2017-05-14 2017-05-14 Surveillance systems, surveillance programs, and storage media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017096104A JP7031817B2 (en) 2017-05-14 2017-05-14 Surveillance systems, surveillance programs, and storage media

Publications (2)

Publication Number Publication Date
JP2018192844A true JP2018192844A (en) 2018-12-06
JP7031817B2 JP7031817B2 (en) 2022-03-08

Family

ID=64569765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017096104A Active JP7031817B2 (en) 2017-05-14 2017-05-14 Surveillance systems, surveillance programs, and storage media

Country Status (1)

Country Link
JP (1) JP7031817B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021151830A (en) * 2020-03-24 2021-09-30 株式会社トヨタシステムズ Abnormity detection system, information process device, abnormity detection method and program for the same
KR20230037713A (en) * 2021-09-09 2023-03-17 한국철도공사 Train track wildlife detection systme and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554276A (en) * 1991-08-23 1993-03-05 Matsushita Electric Ind Co Ltd Obstacle detection device
JPH07114699A (en) * 1993-10-19 1995-05-02 Matsushita Electric Ind Co Ltd Method and device for detecting body
JPH09282459A (en) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd Body detector
JP2007010681A (en) * 2006-08-28 2007-01-18 East Japan Railway Co Sensing system
JP2013186876A (en) * 2012-03-12 2013-09-19 Nec Corp Unmanned determination device, unmanned determination method and unmanned determination program
JP2014059646A (en) * 2012-09-14 2014-04-03 Toshiba Corp Object detection device and object detection method
JP3192881U (en) * 2014-06-26 2014-09-04 サクサ株式会社 Entrance / exit monitoring device
JP2016123034A (en) * 2014-12-25 2016-07-07 京セラ株式会社 Stereo camera device, mobile body, stereo camera system, server device, and control method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0554276A (en) * 1991-08-23 1993-03-05 Matsushita Electric Ind Co Ltd Obstacle detection device
JPH07114699A (en) * 1993-10-19 1995-05-02 Matsushita Electric Ind Co Ltd Method and device for detecting body
JPH09282459A (en) * 1996-04-18 1997-10-31 Matsushita Electric Ind Co Ltd Body detector
JP2007010681A (en) * 2006-08-28 2007-01-18 East Japan Railway Co Sensing system
JP2013186876A (en) * 2012-03-12 2013-09-19 Nec Corp Unmanned determination device, unmanned determination method and unmanned determination program
JP2014059646A (en) * 2012-09-14 2014-04-03 Toshiba Corp Object detection device and object detection method
JP3192881U (en) * 2014-06-26 2014-09-04 サクサ株式会社 Entrance / exit monitoring device
JP2016123034A (en) * 2014-12-25 2016-07-07 京セラ株式会社 Stereo camera device, mobile body, stereo camera system, server device, and control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021151830A (en) * 2020-03-24 2021-09-30 株式会社トヨタシステムズ Abnormity detection system, information process device, abnormity detection method and program for the same
KR20230037713A (en) * 2021-09-09 2023-03-17 한국철도공사 Train track wildlife detection systme and method
KR102597373B1 (en) * 2021-09-09 2023-11-06 한국철도공사 Train track wildlife detection systme and method

Also Published As

Publication number Publication date
JP7031817B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
US10713490B2 (en) Traffic monitoring and reporting system and method
KR101766305B1 (en) Apparatus for detecting intrusion
US11361556B2 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
US9767663B2 (en) GPS directed intrusion system with data acquisition
KR100862398B1 (en) Automatic police enforcement method of illegal-stopping and parking vehicle having cctv for preventing crime using multiple camera and system thereof
KR100835085B1 (en) A real time processing system and method of a traffic accident using an unmanned recording device
WO2018068579A1 (en) Traffic audiovisual receiving and analyzing system
JP7338739B2 (en) Information processing device, control method, and program
KR102434154B1 (en) Method for tracking multi target in traffic image-monitoring-system
CN112757300A (en) Robot protection system and method
KR20190078688A (en) Artificial intelligence-based parking recognition system
KR101210615B1 (en) Regulation system of u-turn violation vehicle
KR20200026492A (en) Accident monitoring system in tunnel using camera grouping of IoT based
KR101322162B1 (en) Method for detection using detection system of vehicles
JP7031817B2 (en) Surveillance systems, surveillance programs, and storage media
RU164432U1 (en) DEVICE FOR AUTOMATIC PHOTOVIDEO FIXATION OF VIOLATIONS DO NOT GIVE ADVANTAGES TO THE PEDESTRIAN AT THE UNRESOLVED PEDESTRIAN TRANSITION
JP6967868B2 (en) Surveillance systems, surveillance programs, and storage media
CN110070724A (en) A kind of video monitoring method, device, video camera and image information supervisory systems
KR101686851B1 (en) Integrated control system using cctv camera
KR102713540B1 (en) Video analysis device using fixed camera and moving camera
KR100844640B1 (en) Method for object recognizing and distance measuring
KR20220154473A (en) System of peventing external intrusion using virtulal detection line in image
EP1921581A1 (en) Method and apparatus for monitoring a moving object
KR102703340B1 (en) Boundary area intelligent automatic detection system using a single complex sensors
KR102660024B1 (en) Method for detection road event and apparatus for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220211

R150 Certificate of patent or registration of utility model

Ref document number: 7031817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D01