JP6967868B2 - Surveillance systems, surveillance programs, and storage media - Google Patents

Surveillance systems, surveillance programs, and storage media Download PDF

Info

Publication number
JP6967868B2
JP6967868B2 JP2017074856A JP2017074856A JP6967868B2 JP 6967868 B2 JP6967868 B2 JP 6967868B2 JP 2017074856 A JP2017074856 A JP 2017074856A JP 2017074856 A JP2017074856 A JP 2017074856A JP 6967868 B2 JP6967868 B2 JP 6967868B2
Authority
JP
Japan
Prior art keywords
information
image
monitoring
projectile
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017074856A
Other languages
Japanese (ja)
Other versions
JP2017225108A (en
Inventor
良幸 長尾
昌康 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computer System Technology Co Ltd
Original Assignee
Computer System Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computer System Technology Co Ltd filed Critical Computer System Technology Co Ltd
Publication of JP2017225108A publication Critical patent/JP2017225108A/en
Application granted granted Critical
Publication of JP6967868B2 publication Critical patent/JP6967868B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視システム、監視プログラム、および、記憶媒体に関し、特に、飛翔体を特定する監視システム、監視プログラム、および、記憶媒体に関するものである。 The present invention relates to a monitoring system, a monitoring program, and a storage medium, and more particularly to a monitoring system, a monitoring program, and a storage medium for identifying a flying object.

監視カメラは、従来から利用されてきたが、インターネット回線の普及によってネットワークに接続され、遠隔のサーバで監視するような運用が多くなりつつある。また、カメラの画素数も多くなり、録画された画像を事後的に解析して、事故や犯罪の認識が可能となった。このような監視カメラの現状であるが、最も多い利用形態は、建物に無人の監視カメラを設置し、遠隔地において、警備会社などの防犯係員が監視カメラの映像を監視して、防犯に役立てるものである。防犯係員は、監視カメラの多数の画像を多数の表示装置で実際に観察して、疑わしい対象(不審者や不審物)を認識し、必要であれば、警備員を派遣したり、不審者に警告したりしている。 Surveillance cameras have been used for a long time, but with the spread of Internet lines, they are connected to networks and are increasingly operated by remote servers for monitoring. In addition, the number of pixels of the camera has increased, and it has become possible to recognize accidents and crimes by analyzing the recorded images after the fact. Although the current situation of such surveillance cameras is the most common, an unmanned surveillance camera is installed in a building, and security personnel such as security companies monitor the images of the surveillance cameras in remote areas to help prevent crime. It is a thing. Security guards actually observe a large number of images from surveillance cameras on a large number of display devices, recognize suspicious objects (suspicious persons and suspicious objects), dispatch security guards if necessary, and send them to suspicious persons. I'm warning you.

しかしながら、防犯係員は、様々な場所、様々な建物を映す監視カメラの画像を見ることになるが、その画像内には、公的な領域である道路、公園、通路、または、隣接する無関係の建物や敷地などもあり、どこが大丈夫で、どこに侵入されれば、不審者と見做していいのかが即座に理解できない場合も多い。場合によっては、仕切りのない私有地や、本来は侵入が許されない領域へ不審者が侵入しても、防犯係員が気付かないこともある。近年、テロや犯罪などもあり、監視カメラの設置は急激に増加しているが、このような状況は、監視する防犯係員の負担を増加させ、監視ミスを誘発させている。 However, security personnel will see images of surveillance cameras in different locations, different buildings, in which the public areas of roads, parks, passageways, or adjacent irrelevant There are also buildings and sites, so it is often difficult to immediately understand where it is okay and where it should be regarded as a suspicious person. In some cases, even if a suspicious person invades a private land without a partition or an area where intrusion is not allowed, the security officer may not notice it. In recent years, due to terrorism and crimes, the number of surveillance cameras installed has increased sharply, but such a situation has increased the burden on security personnel to monitor and induces surveillance errors.

監視カメラの自動化の従来技術として、画像処理装置、画像処理システム及びプログラム(特許文献1を参照されたい。)がある。これは、「監視領域の全景画像内に注視領域を設定し、画像解析手段により、設定した注視領域の画像を解析して移動体を検出し、検出に基づきカメラ部のズームカメラを作動して上記移動体を撮影する。その際、注視部分画像に全景画像との空間的な関係情報と、注視部分画像の全景画像における時間軸上の遷移を示す時間的な関係情報を作成し、注視部分画像に前記各関係情報を付与して画像記憶部に記憶させる。検索時には、上記各関係情報を用いて、全景画像及び注視部分画像を検索して両画像を重ねて表示部に表示する。」といった技術である。 Conventional techniques for automating surveillance cameras include image processing devices, image processing systems and programs (see Patent Document 1). This is to "set a gaze area in the panoramic image of the monitoring area, analyze the image of the set gaze area by the image analysis means to detect a moving object, and operate the zoom camera of the camera unit based on the detection. The moving body is photographed. At that time, the spatial relationship information with the panoramic image and the temporal relationship information showing the transition on the time axis in the panoramic image of the gaze partial image are created in the gaze portion image, and the gaze portion is photographed. The related information is added to the image and stored in the image storage unit. At the time of searching, the panoramic image and the gaze part image are searched using the above related information, and both images are superimposed and displayed on the display unit. " It is a technology such as.

特開2010-233185号公報Japanese Unexamined Patent Publication No. 2010-233185

上記の従来技術は、監視領域を設定した後で、その監視領域内での移動体を不審な対象としてズームさせて撮影するものである。これは、不審者を自動追尾してズームする技術であるが、「監視領域の自動設定」はできない。また、監視領域が広い場合や監視領域に複数の移動体が入った場合には、高速な演算装置でなければ処理が間に合わなくなり、不審な対象の捕捉が不可能になるなどのデメリットがある。このように、従来技術では、監視領域を設定するには、人間が設定することが必須であり、自動設定の技術はなかった。監視カメラの設定者による監視領域の設定においても、設定すべき監視領域を適正に設定できるか否かは、監視カメラの設定者の技量や当該建物や敷地の状況を知っているか否かに依存することになる。このような人的な設定では、監視領域の設定ミスを無くすことは容易なことではない。 In the above-mentioned prior art, after setting a monitoring area, a moving object in the monitoring area is zoomed and photographed as a suspicious object. This is a technology that automatically tracks and zooms suspicious persons, but it cannot "automatically set the monitoring area". Further, when the monitoring area is wide or when a plurality of moving objects enter the monitoring area, there is a demerit that the processing cannot be completed in time unless the high-speed arithmetic unit is used, and it becomes impossible to capture a suspicious object. As described above, in the prior art, in order to set the monitoring area, it is essential for a human to set it, and there is no automatic setting technique. Even when the surveillance area is set by the surveillance camera setter, whether or not the surveillance area to be set can be set properly depends on the skill of the surveillance camera setter and whether or not the situation of the building or site is known. Will be done. With such a human setting, it is not easy to eliminate the setting error of the monitoring area.

また、監視カメラは自動認識でも人間による観察においても、光、雨などの気象変化を、不審者や不審物であると間違って認識することがあるが、これについては、カメラの画素数を増大させるなどで対応しているが、根本的には解決していない。 In addition, surveillance cameras may mistakenly recognize weather changes such as light and rain as suspicious persons or objects in both automatic recognition and human observation, but in this case, the number of pixels of the camera is increased. We have responded by letting them do it, but it has not been fundamentally resolved.

ところで、カメラ以外の監視装置の従来技術には、光線発信機と、光線受信機とのセットで、そこの間に監視線を設定するものがある。監視線を対象が遮ったときに、これを不審者として警報を出すような装置である。これは、現在も、夜間警備のシステムとして広く使用されている。しかし、この従来技術も、監視線の機械を一旦設置した後は、監視線を変更するには機械自体を移設する必要があるため、監視線を容易に移設したり、変更したりすることが困難だという欠点があった。また、監視線の数だけ、発信部と受信部とのセットが必要となるという欠点もある。 By the way, in the conventional technology of a monitoring device other than a camera, there is a set of a ray transmitter and a ray receiver, and a monitoring line is set between them. When the target blocks the monitoring line, it is a device that issues an alarm as a suspicious person. It is still widely used as a night security system. However, even in this conventional technology, once the monitoring line machine is installed, it is necessary to relocate the machine itself in order to change the monitoring line, so the monitoring line can be easily relocated or changed. It had the drawback of being difficult. In addition, there is a drawback that a set of a transmitting unit and a receiving unit is required for the number of monitoring lines.

さらに、最近では、ドローンと称する小型飛翔体の技術が発展し、非常に精密に飛行制御可能な飛翔体が普及しつつある。この飛翔体にカメラやマイクを搭載して、個人宅やビルなどを盗撮したり盗聴したりするような危険性が増加している。従って、従来は、建物や施設の警備では、人物の侵入を考慮すれば足りていたが、ドローンの侵入やドローンによる盗撮や盗聴、或いは、危険行為などを勘案して、監視システムを構築する必要性がある。 Furthermore, recently, the technology of small flying objects called drones has been developed, and flying objects capable of extremely precise flight control are becoming widespread. Cameras and microphones are mounted on this projectile, increasing the risk of voyeurizing or tapping private homes and buildings. Therefore, in the past, it was sufficient to consider the intrusion of people in the security of buildings and facilities, but it is necessary to build a monitoring system in consideration of the intrusion of drones, voyeurism and wiretapping by drones, and dangerous acts. There is sex.

また、飛翔体も、子供の玩具レベルのもので危険性が比較的小さいものから、高性能で危険性が高いものまで多数の種類がある。玩具レベルの飛翔体と、高性能な飛翔体とでは、対応を変えるべきであるが、このようなことに対応する監視システムや防犯システムはまだ開発されていない。 In addition, there are many types of flying objects, from those that are at the level of children's toys and have a relatively low risk to those that have high performance and high risk. The correspondence between toy-level flying objects and high-performance flying objects should be changed, but surveillance systems and crime prevention systems have not yet been developed to deal with such situations.

そこで、本発明の目的は、上記諸課題を解決した監視システム、監視プログラム、および、記憶媒体に関し、特に、飛翔体を特定する監視装置、監視システム、監視プログラム、および、記憶媒体を提供することである。 Therefore, an object of the present invention is to provide a monitoring system, a monitoring program, and a storage medium that solve the above problems, and in particular, provide a monitoring device, a monitoring system, a monitoring program, and a storage medium for identifying a flying object. Is.

上述した諸課題を解決すべく、第1の発明による監視システム(装置)は、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられたリスク情報を含む飛翔体リスクデータベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高い音声データまたは画像関連データに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体リスクデータベースを参照して、リスク情報を求めるリスク情報特定部と、
を有する。
In order to solve the above-mentioned problems, the monitoring system (device) according to the first invention is
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object risk database including risk information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit (or an image pickup unit that captures images) that acquires a stereo image,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result, the flying object determination unit that obtains the flying object information associated with the voice data or the image-related data having the highest degree of matching, and the flying object determination unit.
Based on the requested flying object information, the risk information identification unit for which risk information is requested by referring to the flying object risk database, and
Have.

また、第2の発明による監視システムは、
前記記憶部が、
リスク情報に関連付けられた飛翔体対応情報を含むリスク対応データベースをさらに格納し、
前記監視システムは、
求められたリスク情報に基づき、リスク対応データベースを参照して、飛翔体対応情報を求める飛翔体対応決定部を、さらに有する、
ことを特徴とする。
Further, the monitoring system according to the second invention is
The storage unit
Further stores the risk response database containing the projectile response information associated with the risk information,
The monitoring system is
Based on the requested risk information, it also has a projectile response decision unit that seeks projectile response information by referring to the risk response database.
It is characterized by that.

また、第3の発明による監視システムは、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報(監視線や監視面など)を求めるリスク情報特定部と、
を有する。
Further, the monitoring system according to the third invention is
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object monitoring area database including monitoring area information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit (or an image pickup unit that captures images) that acquires a stereo image,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result, the projectile determination unit that obtains the projectile information associated with the one with the highest degree of matching, and the projectile determination unit,
Based on the obtained flying object information, the risk information identification unit that obtains the monitoring area information (monitoring line, monitoring surface, etc.) by referring to the flying object monitoring area database, and
Have.

また、第4の発明による監視システムは、
前記記憶部が、
リスク情報に関連付けられた飛翔体対応情報を含むリスク対応データベースをさらに格納し、
前記監視システムは、
求められたリスク情報に基づき、リスク対応データベースを参照して、飛翔体対応情報を求める飛翔体対応決定部を、さらに有する、
ことを特徴とする。
Further, the monitoring system according to the fourth invention is
The storage unit
Further stores the risk response database containing the projectile response information associated with the risk information,
The monitoring system is
Based on the requested risk information, it also has a projectile response decision unit that seeks projectile response information by referring to the risk response database.
It is characterized by that.

また、第5の発明による監視システムは、
構造物情報または地形情報を含むBIM/CIM情報を取得するBIM/CIM情報取得部をさらに有し、
前記リスク情報特定部が、
取得したBIM/CIM情報に基づき、監視領域情報を変更または補正する、
ことを特徴とする。
Further, the monitoring system according to the fifth invention is
It also has a BIM / CIM information acquisition unit that acquires BIM / CIM information including structure information or topographical information.
The risk information identification department
Change or correct the monitoring area information based on the acquired BIM / CIM information.
It is characterized by that.

また、第6の発明による監視システムは、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)と、
構造物情報または地形情報を含むBIM/CIM情報を取得するBIM/CIM情報取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報、および、取得したBIM/CIM情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報(監視線や監視面など)を求めるリスク情報特定部と、
を有する。
Further, the monitoring system according to the sixth invention is
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object monitoring area database including monitoring area information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit (or an image pickup unit that captures images) that acquires a stereo image,
A BIM / CIM information acquisition unit that acquires BIM / CIM information including structure information or topographical information,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result, the projectile determination unit that obtains the projectile information associated with the one with the highest degree of matching, and the projectile determination unit,
Based on the obtained flying object information and the acquired BIM / CIM information, the risk information identification unit for obtaining monitoring area information (monitoring line, monitoring surface, etc.) by referring to the flying object monitoring area database, and
Have.

また、第7の発明による監視システムは、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、構造物情報(ビルや施設、家屋などの構造や窓・開口部などの情報、BIM/CIM情報)の情報、および、該構造物情報による監視領域補正情報を含む構造物補正データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)と、
構造物情報を取得する構造物情報取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報(監視線や監視面など)を求めるリスク情報特定部と、
取得された構造物情報に基づき、前記構造物補正データベースを参照して、監視領域補正情報を求め、求められた監視領域補正情報に基づき、前記監視領域情報を補正する監視領域補正部と、
を有する。
Further, the monitoring system according to the seventh invention is
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. Flying object monitoring area database including information and monitoring area information associated with the flying object information, and structure information (information on structures such as buildings, facilities, houses, windows, openings, etc., BIM / CIM information) A storage unit for storing the information of the above and a structure correction database including monitoring area correction information based on the structure information.
A voice acquisition unit that acquires voice, and
An image acquisition unit (or an image pickup unit that captures images) that acquires a stereo image,
The structure information acquisition unit that acquires structure information,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result, the projectile determination unit that obtains the projectile information associated with the one with the highest degree of matching, and the projectile determination unit,
Based on the obtained flying object information, the risk information identification unit that obtains the monitoring area information (monitoring line, monitoring surface, etc.) by referring to the flying object monitoring area database, and
A monitoring area correction unit that obtains monitoring area correction information based on the acquired structure information with reference to the structure correction database and corrects the monitoring area information based on the obtained monitoring area correction information.
Have.

また、第8の発明による監視システムは、
撮像部または前記監視システムの位置情報を取得するGPSユニット、をさらに有し、
前記構造物情報取得部が、
位置情報と構造物情報とが関連付けられた構造物情報データベースを参照して、取得された位置情報に基づき、撮像部または前記監視システムが位置する構造物情報を取得する、
ことを特徴とする。
Further, the monitoring system according to the eighth invention is
It further has a GPS unit that acquires the position information of the image pickup unit or the monitoring system.
The structure information acquisition unit
With reference to the structure information database in which the position information and the structure information are associated with each other, the structure information in which the imaging unit or the monitoring system is located is acquired based on the acquired position information.
It is characterized by that.

また、第9の発明による監視プログラムは、
1つまたは複数の演算処理装置を第1〜8の発明に記載の監視システムとして機能させる監視プログラムである。
Further, the monitoring program according to the ninth invention is
It is a monitoring program that makes one or more arithmetic processing units function as the monitoring system according to the first to eighth inventions.

また、第10の発明によるコンピュータ可読な記憶媒体は、
第9の発明に記載の監視プログラムを格納したコンピュータ可読な記憶媒体である。
Further, the computer-readable storage medium according to the tenth invention is
A computer-readable storage medium containing the monitoring program according to the ninth aspect of the invention.

また、他の態様による、第1の発明による監視システム(装置)は、
ステレオカメラとサーバとを含む監視システムであって、
前記ステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記ステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向を受信する通信部と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、前記ステレオ画像内において該境界線を監視線に設定する監視線設定部と、
前記ステレオ画像を解析して、前記設定した監視線に接触する(或いは、監視線を越えて前記敷地に侵入する)対象を認識する監視部と、
前記監視線に接触する対象を認識したとき、所定の警報(電子メールの送信、警告音声の出力や送信、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
Further, the monitoring system (device) according to the first invention according to another aspect is
A surveillance system that includes a stereo camera and a server,
The stereo camera
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
A communication unit that transmits the stereo image, the position, and the direction to the server.
Have,
The server
A communication unit that receives the stereo image, the position, and the direction transmitted from the stereo camera.
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary line is monitored in the stereo image. The monitoring line setting unit to be set to
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the set monitoring line (or crosses the monitoring line and invades the site).
An alarm output unit that outputs a predetermined alarm (sending e-mail, outputting or transmitting a warning voice, reporting to a security company, police, etc.) when recognizing an object that comes into contact with the monitoring line.
Have,
It is characterized by that.

また、他の態様による、第2の発明による監視システムは、
前記サーバが、
前記警報出力部に代えて、前記監視線に接触する対象を認識したとき、前記ステレオカメラから該対象までの距離を求め、該距離と、監視線に接触した対象の位置から前記ステレオカメラまでの距離とがほぼ同じ場合のみ、或いは、その差が所定の数値以下の場合のみ、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する第2の警報出力部を有する、
ことを特徴とする。
Further, the monitoring system according to the second invention according to another aspect is
The server
When the target in contact with the monitoring line is recognized instead of the alarm output unit, the distance from the stereo camera to the target is obtained, and the distance and the position of the target in contact with the monitoring line to the stereo camera are obtained. A second that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) only when the distance is almost the same or the difference is less than or equal to a predetermined value. Has an alarm output unit,
It is characterized by that.

また、他の態様による、第3の発明による監視システムは、
ステレオカメラとサーバとを含む監視システムであって、
前記ステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記ステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向を受信する通信部と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、前記ステレオ画像内において該境界線上またはその近傍に塀(フェンスなど)が設けられている場合は、該塀の上端(誤報を防止するために上端のやや下側(即ち、端部から数cm、十数センチ、端部から遠ざかった位置)に設定することが好適である)に監視線を設定する監視線設定部と、
前記ステレオ画像を解析して、前記監視線に接触する対象を認識する監視部と、
前記監視線に接触する対象を認識したとき、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
Further, the monitoring system according to the third invention according to another aspect is
A surveillance system that includes a stereo camera and a server,
The stereo camera
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
A communication unit that transmits the stereo image, the position, and the direction to the server.
Have,
The server
A communication unit that receives the stereo image, the position, and the direction transmitted from the stereo camera.
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary line is on or near the boundary line in the stereo image. If a fence (fence, etc.) is provided on the wall, the upper end of the wall (slightly below the upper end to prevent false alarms (that is, a few cm, a dozen centimeters from the end, and a position away from the end)). It is preferable to set to), and the monitoring line setting unit that sets the monitoring line to
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the monitoring line.
An alarm output unit that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) when it recognizes an object that comes into contact with the monitoring line.
Have,
It is characterized by that.

また、他の態様による、第4の発明による監視システムは、
ステレオカメラとサーバとを含む監視システムであって、
前記ステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記ステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向を受信する通信部と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、
前記ステレオ画像内において該境界線を監視線に設定し、さらに、該境界線から上方に垂直に移動した空中で境界を形成する少なくとも1つの線を追加の監視線に設定する監視線設定部と、
前記ステレオ画像を解析して、前記監視線または追加の監視線に接触する対象を認識する監視部と、
前記監視線または追加の監視線に接触する対象を認識したとき、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
Further, the monitoring system according to the fourth invention according to another aspect is
A surveillance system that includes a stereo camera and a server,
The stereo camera
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
A communication unit that transmits the stereo image, the position, and the direction to the server.
Have,
The server
A communication unit that receives the stereo image, the position, and the direction transmitted from the stereo camera.
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained.
A monitoring line setting unit that sets the boundary line as a monitoring line in the stereo image, and further sets at least one line forming a boundary in the air vertically moved upward from the boundary line as an additional monitoring line. ,
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the monitoring line or an additional monitoring line.
An alarm output unit that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) when it recognizes an object that comes into contact with the monitoring line or an additional monitoring line.
Have,
It is characterized by that.

また、他の態様による、第5の発明による監視システムは、
ステレオカメラとサーバとを含む監視システムであって、
前記ステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記ステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向を受信する通信部と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、該境界線を含む境界面であって、該境界線から上方に垂直に延びているような境界面(境界線で外部とを仕切る面の空間座標など)を、前記ステレオ画像内において監視面に設定する監視面設定部と、
前記ステレオ画像を解析して、前記監視面に接触する対象を認識する監視部と、
前記監視面に接触する対象を認識したとき、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
Further, the monitoring system according to the fifth invention according to another aspect is
A surveillance system that includes a stereo camera and a server,
The stereo camera
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
A communication unit that transmits the stereo image, the position, and the direction to the server.
Have,
The server
A communication unit that receives the stereo image, the position, and the direction transmitted from the stereo camera.
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary surface including the boundary line. A monitoring surface setting unit that sets a boundary surface that extends vertically upward from the boundary line (such as the spatial coordinates of the surface that separates the outside from the boundary line) as the monitoring surface in the stereo image.
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the monitoring surface.
An alarm output unit that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) when it recognizes an object that comes into contact with the monitoring surface.
Have,
It is characterized by that.

また、他の態様による、第6の発明による監視システムは、
前記サーバが、
前記警報出力部に代えて、前記監視線に接触する対象を認識したとき、前記ステレオカメラから該対象までの距離を求め、該距離と、監視面に接触した対象の位置から前記ステレオカメラまでの距離とがほぼ同じ場合のみ、或いは、その差が所定の数値以下の場合のみ、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する第2の警報出力部を有する、
ことを特徴とする。
Further, the monitoring system according to the sixth invention according to another aspect is
The server
When the target in contact with the monitoring line is recognized instead of the alarm output unit, the distance from the stereo camera to the target is obtained, and the distance and the position of the target in contact with the monitoring surface to the stereo camera are obtained. A second that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) only when the distance is almost the same or the difference is less than or equal to a predetermined value. Has an alarm output unit,
It is characterized by that.

また、他の態様による、第7の発明による監視システムは、
ステレオカメラとサーバとを含む監視システムであって、
前記ステレオカメラが、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部と、
を有し、
前記サーバが、
前記ステレオカメラから送信された前記ステレオ画像、前記位置、および、前記方向を受信する通信部と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、該境界線を含む境界面であって、該境界線から上方に垂直に延びているような境界面(境界線で外部とを仕切る面の空間座標など)を、前記ステレオ画像内において監視面に設定する監視面設定部と、
前記ステレオ画像を解析して、前記設定した監視面に接触する対象(或いは、監視面を越えて前記敷地または該敷地の上方の空間に侵入する対象)を認識する監視部と、
前記監視面に接触する対象を認識したとき、侵入する対象を認識したとき、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
Further, the monitoring system according to the seventh invention according to another aspect is
A surveillance system that includes a stereo camera and a server,
The stereo camera
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
A communication unit that transmits the stereo image, the position, and the direction to the server.
Have,
The server
A communication unit that receives the stereo image, the position, and the direction transmitted from the stereo camera.
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary surface including the boundary line. A monitoring surface setting unit that sets a boundary surface that extends vertically upward from the boundary line (such as the spatial coordinates of the surface that separates the outside from the boundary line) as the monitoring surface in the stereo image.
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the set monitoring surface (or an object that crosses the monitoring surface and invades the site or the space above the site).
An alarm output unit that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) when recognizing an object that comes into contact with the monitoring surface or an invading object. ,
Have,
It is characterized by that.

監視システムは、サーバを使用する形式であるが、以下のようにサーバの機能を監視装置に組み込むことも可能である。 The monitoring system uses a server, but it is also possible to incorporate the server functions into the monitoring device as follows.

また、他の態様による、第8の発明による監視装置は、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、該境界線を、前記ステレオ画像内において監視線に設定する監視線設定部と、
前記ステレオ画像を解析して、前記設定した監視線に接触する対象を認識する(或いは、監視線を越えて前記敷地に侵入する対象を認識する)監視部と、
前記監視線に接触する対象を認識したとき、所定の警報(電子メールを送信、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
また、通信部を設けて、出力をネットワークを介して携帯端末やサーバ、PCなどに送信することが可能である。
Further, the monitoring device according to the eighth invention according to another aspect is
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary line is monitored in the stereo image. The monitoring line setting unit to set the line and
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the set monitoring line (or recognizes an object that crosses the monitoring line and invades the site).
An alarm output unit that outputs a predetermined alarm (sending an e-mail, warning voice, warning sound, notification to a security company, police, etc.) when recognizing an object that comes into contact with the monitoring line.
Have,
It is characterized by that.
Further, it is possible to provide a communication unit and transmit the output to a mobile terminal, a server, a PC or the like via a network.

また、他の態様による、第9の発明による監視装置は、
ステレオ画像を撮像する撮像部と、
自装置の位置を測定する位置測定部(GPSなど)と、
自装置の撮像部の方向を測定する方向測定部(3軸地磁気センサなど)と、
前記位置の敷地に関する敷地情報を取得する取得部と、
前記位置、前記方向、および、敷地情報に基づき、前記ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、該境界線を含む境界面であって、該境界線から上方に垂直に延びているような境界面(境界線で外部とを仕切る面の空間座標など)を、前記ステレオ画像内において監視面に設定する監視面設定部と、
前記ステレオ画像を解析して、前記設定した監視面に接触する対象を認識する監視部と、
前記監視面に接触する対象を認識したとき、所定の警報(電子メールを送信、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部と、
を有する、
ことを特徴とする。
Further, the monitoring device according to the ninth invention according to another aspect is
An image pickup unit that captures stereoscopic images, and
A position measuring unit (GPS, etc.) that measures the position of the own device,
A direction measuring unit (3-axis geomagnetic sensor, etc.) that measures the direction of the image pickup unit of the own device,
The acquisition department that acquires site information about the site at the above location,
Based on the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary surface including the boundary line. A monitoring surface setting unit that sets a boundary surface that extends vertically upward from the boundary line (such as the spatial coordinates of the surface that separates the outside from the boundary line) as the monitoring surface in the stereo image.
A monitoring unit that analyzes the stereo image and recognizes an object that comes into contact with the set monitoring surface.
An alarm output unit that outputs a predetermined alarm (sending an e-mail, warning voice, warning sound, notification to a security company, police, etc.) when recognizing an object that comes into contact with the monitoring surface.
Have,
It is characterized by that.

上述したように本発明の解決手段をシステムや装置として説明してきたが、本発明はこれらに実質的に相当する方法、プログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。なお、下記の方法やプログラムの各ステップは、データの処理においては必要に応じて、CPU、DSPなどの演算処理装置を使用するものであり、入力したデータや加工・生成したデータなどを磁気テープ、HDD、メモリなどの記憶装置に格納するものである。 As described above, the means for solving the present invention have been described as a system or an apparatus, but the present invention can also be realized as a storage medium in which a method, a program, or a program substantially corresponding to these is recorded. It should be understood that these are also included in the scope of. In addition, each step of the following method and program uses an arithmetic processing device such as CPU and DSP as necessary in data processing, and the input data and processed / generated data are taped. , HDD, memory, etc. are stored in storage devices.

例えば、本発明を、本発明をプログラムとして実現させた、他の態様による、第10の発明によるプログラムは、
1つまたは複数の演算処理装置を第1〜10の発明に記載の監視システムとして機能させる監視プログラムである。
For example, the program according to the tenth invention according to another aspect, which realizes the present invention as a program, is the present invention.
It is a monitoring program that makes one or more arithmetic processing units function as the monitoring system according to the first to tenth inventions.

また、他の態様による、第11の発明によるプログラムは、
演算処理装置を第6または7の発明に記載の監視装置として機能させる監視プログラムである。
In addition, the program according to the eleventh invention according to another aspect is
It is a monitoring program that makes the arithmetic processing unit function as the monitoring device according to the sixth or seventh invention.

また、例えば、本発明をコンピュータ可読な記録媒体として実現させた、第12の発明によるコンピュータ可読な記録媒体プログラムは、
第10または11の発明に記載の監視プログラムを格納したコンピュータ可読な記憶媒体である。
Further, for example, the computer-readable recording medium program according to the twelfth invention, which realizes the present invention as a computer-readable recording medium, is
A computer-readable storage medium containing the monitoring program according to the tenth or eleventh invention.

本発明によれば、画像のみならず音声をさらに利用して、飛翔体を監視する監視装置、監視システムを提供することが可能となる。本発明の他の態様によれば、監視線や監視面を自動設定可能な監視装置、監視システムを提供することが可能となる。 According to the present invention, it is possible to provide a monitoring device and a monitoring system for monitoring a flying object by further utilizing not only images but also sounds. According to another aspect of the present invention, it is possible to provide a monitoring device and a monitoring system capable of automatically setting a monitoring line and a monitoring surface.

図1は、本発明の一実施態様による監視システムの概要を示すブロック図である。FIG. 1 is a block diagram showing an outline of a monitoring system according to an embodiment of the present invention. 図2は、図1に示したシステムで実行される処理の一例を示すシーケンス図である。FIG. 2 is a sequence diagram showing an example of the processing executed by the system shown in FIG. 図3は、図1に示したシステムで実行される処理の他の一例を示すシーケンス図である。FIG. 3 is a sequence diagram showing another example of the processing executed by the system shown in FIG. 図4は、本システムのステレオカメラを設置したときの監視線の自動設定を示す模式図である。FIG. 4 is a schematic diagram showing the automatic setting of the monitoring line when the stereo camera of this system is installed. 図5は、図4で他の方向にカメラを向けたときに画面上でどのように見えるかを説明する模式図である。FIG. 5 is a schematic diagram illustrating what the camera looks like on the screen when the camera is pointed in the other direction in FIG. 図6は、図1に示したシステムで実行される処理の他の一例を示すシーケンス図である。FIG. 6 is a sequence diagram showing another example of the processing executed by the system shown in FIG. 図7は、図6のように監視線をフェンス上端に設置したときに画面上でどのように見えるかを説明する模式図である。FIG. 7 is a schematic diagram illustrating what the monitoring line looks like on the screen when the monitoring line is installed at the upper end of the fence as shown in FIG. 図8は、図1に示したシステムで実行される処理の他の一例を示すシーケンス図である。FIG. 8 is a sequence diagram showing another example of the processing executed by the system shown in FIG. 図9は、本システムのステレオカメラを設置したときの複数の監視線の自動設定を示す模式図である。FIG. 9 is a schematic diagram showing automatic setting of a plurality of monitoring lines when the stereo camera of this system is installed. 図10は、本システムの監視下にある敷地に接近する対象を不審物として検知するシーンを説明する模式図である。FIG. 10 is a schematic diagram illustrating a scene in which an object approaching a site under the supervision of this system is detected as a suspicious object. 図11は、図7の各シーンが画面上でどのように見えるかを説明する模式図である。FIG. 11 is a schematic diagram illustrating how each scene of FIG. 7 looks on the screen. 図12は、本発明の一実施態様による監視システムの概要を示すブロック図である。FIG. 12 is a block diagram showing an outline of a monitoring system according to an embodiment of the present invention. 図13は、図12に示したシステムで実行される処理の他の一例を示すシーケンス図である。FIG. 13 is a sequence diagram showing another example of the processing executed by the system shown in FIG. 図14は、本システムのステレオカメラを設置したときの複数の監視面の自動設定を示す模式図である。FIG. 14 is a schematic diagram showing automatic setting of a plurality of monitoring surfaces when a stereo camera of this system is installed. 図15は、本システムのステレオカメラを設置したときの複数の監視面の自動設定が完了したときを示す模式図である。FIG. 15 is a schematic diagram showing when the automatic setting of a plurality of monitoring surfaces when the stereo camera of this system is installed is completed. 図16は、本発明の一実施態様による監視システムの概要を示すブロック図である。FIG. 16 is a block diagram showing an outline of a monitoring system according to an embodiment of the present invention. 図17は、本システムで実行される処理の一例を示すフローチャートである。FIG. 17 is a flowchart showing an example of processing executed by this system. 図18は、本システムの監視下にある敷地に接近する対象を不審物として検知するシーンを説明する模式図である。FIG. 18 is a schematic diagram illustrating a scene in which an object approaching a site under the supervision of this system is detected as a suspicious object. 図19は、本システムで実行される処理の一例を示すフローチャートである。FIG. 19 is a flowchart showing an example of processing executed by this system. 図20は、図19のステップD34−1をより詳細なステップに分けたフローチャートである。FIG. 20 is a flowchart in which step D34-1 of FIG. 19 is divided into more detailed steps. 図21は、本システムの監視下にある建物に接近する飛翔体に対する監視面の設定状況を説明する模式図である。FIG. 21 is a schematic diagram illustrating a setting status of a monitoring surface for a flying object approaching a building under the monitoring of this system. 図22は、本システムで実行される処理の一例を示すフローチャートである。FIG. 22 is a flowchart showing an example of processing executed by this system. 図23は、本システムの監視下にある建物に接近する飛翔体に対する監視面の設定状況を説明する模式図である。FIG. 23 is a schematic diagram illustrating the setting status of the monitoring surface for a flying object approaching a building under the monitoring of this system. 図24は、浄水場を監視する場合の監視線の設定状況を説明する模式図である。FIG. 24 is a schematic diagram illustrating a setting status of a monitoring line when monitoring a water purification plant.

以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施態様による監視システムの概要を示すブロック図である。図に示すように、監視システムMS1は、ステレオカメラSC1とサーバSV1とを含むものである。サーバSV1は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部(図示せず)、出力部(図示せず)、通信部COM、記憶部MEM、および、表示部DISを有する。ステレオカメラSC1は、制御部(CPU、演算処理装置、プロセッサ、図示せず)、通信部COMを有するが、さらに、入力部(図示せず)、出力部(図示せず)、記憶部(図示せず)および、表示部(図示せず)を有してもよい。ステレオカメラとは、複数(通常は2つ)のカメラ(撮像部)で複数(通常は2つ)の画像を撮影するものである。通常は、2つのカメラの光軸が平行なもので対象物を同時に撮影するものである。また、これで撮影した2つの画像をステレオ画像といい、さらに、これら2つの画像から様々な処理をした画像、処理後の情報セット、また、これらを組み合わせたものもステレオ画像に含まれる。3眼以上のカメラで撮影した3眼ステレオ画像であってもよい。また、カメラは、夜間でも僅かな環境中の光で撮影可能な高性能な機種を使用することが好適である。 FIG. 1 is a block diagram showing an outline of a monitoring system according to an embodiment of the present invention. As shown in the figure, the monitoring system MS1 includes a stereo camera SC1 and a server SV1. The server SV1 has a control unit (CPU, arithmetic processing unit, processor) CON, an input unit (not shown), an output unit (not shown), a communication unit COM, a storage unit MEM, and a display unit DIS. The stereo camera SC1 has a control unit (CPU, arithmetic processing unit, processor, not shown) and a communication unit COM, but further includes an input unit (not shown), an output unit (not shown), and a storage unit (not shown). It may have a display unit (not shown) and a display unit (not shown). A stereo camera is a camera that captures a plurality of (usually two) images with a plurality of (usually two) cameras (imaging units). Normally, the optical axes of the two cameras are parallel to each other, and the object is photographed at the same time. Further, the two images taken by this are referred to as stereo images, and further, an image obtained by various processing from these two images, an information set after processing, and a combination thereof are also included in the stereo image. It may be a three-lens stereo image taken by a camera with three or more eyes. In addition, it is preferable to use a high-performance camera that can shoot with light in a slight environment even at night.

ステレオカメラSC1が、ステレオ画像を撮像する撮像部CAMと、自装置の位置を測定する位置測定部(GPSなど)と、自装置の撮像部の方向を測定する方向測定部DIM(3軸地磁気センサなど)と、前記ステレオ画像、前記位置、および、前記方向を前記サーバに送信する通信部COMとを有する。 The stereo camera SC1 has an imaging unit CAM that captures a stereo image, a position measuring unit (GPS, etc.) that measures the position of its own device, and a direction measuring unit DIM (3-axis geomagnetic sensor) that measures the direction of the imaging unit of its own device. Etc.), and a communication unit COM that transmits the stereo image, the position, and the direction to the server.

サーバSV1が、ステレオカメラから送信されたステレオ画像、位置、および、方向を受信する通信部COMと、ネットワークNETを介して接続された敷地情報サーバRESまたは記憶部MEMなどから、位置の敷地に関する敷地情報を取得する取得部ACQと、位置、方向、および、敷地情報に基づき、ステレオ画像内における敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、ステレオ画像内において該境界線を監視線に設定する監視線設定部MLSと、ステレオ画像を解析して、設定した監視線を越えて前記敷地に侵入したり、監視線に接触したりする対象を認識する監視部MONと、監視線に接触する対象を認識したとき、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部WOTを有する。制御部CONは、ステレオ画像(2つの画像)のうちの特定領域(対象が存在する部分など)と自装置との距離を、既知のステレオ画像距離解析技法などを用いて、算出する距離算出部DEを含む。距離算出部や監視線設定部などは、ソフトウェアで実現してもよいが、回路化してハードウェアとして実現する方がより高速処理可能となる。表示部DISは、本装置に格納される情報や生成された情報を表示することができる。 The site related to the site where the server SV1 is located from the site information server RES or the storage unit MEM connected via the network NET to the communication unit COM that receives the stereo image, position, and direction transmitted from the stereo camera. Based on the acquisition unit ACQ that acquires information, the position, direction, and site information, the boundary line (boundary coordinates) that forms at least a part of the contour of the site in the stereo image is obtained, and the boundary is obtained in the stereo image. A monitoring line setting unit MLS that sets a line as a monitoring line, and a monitoring unit MON that analyzes a stereo image and recognizes an object that invades the site or touches the monitoring line beyond the set monitoring line. It has an alarm output unit WOT that outputs a predetermined alarm (e-mail, warning voice, warning sound, notification to a security company, police, etc.) when it recognizes an object that comes into contact with the monitoring line. The control unit CON is a distance calculation unit that calculates the distance between a specific area (a part where an object exists, etc.) of a stereo image (two images) and its own device using a known stereo image distance analysis technique or the like. Including DE. The distance calculation unit and the monitoring line setting unit may be realized by software, but it is possible to perform higher-speed processing by forming a circuit and realizing it as hardware. The display unit DIS can display the information stored in the apparatus and the generated information.

サーバSV1の制御部に含まれる各機能部は、制御部のメモリ空間に読み込まれたプログラムモジュールによって実現することが好適である。これは、ステレオカメラSC1は、制御部は図示していないが、制御部のメモリ空間に読み込まれたプログラムモジュールによって各機能部を実現したり、内臓ずるGPSユニットやカメラユニットなどで各機能部を実現したりすることが可能である。通常は、記憶部或いはウェブサイトから、プロセッサを本装置の各部として機能させるソフトウェアをダウンロードして、PCにインストールして起動することで、PCが、本装置として動作する。なお、制御部に設けた各機能部は、機能上一定のまとまりのあるステップを1つにまとめたものに過ぎず、複数の機能部を1つの機能部にしたり、その一部を他の機能部に組み入れたり、他の独立した機能部に分割したりすることが可能である。 It is preferable that each functional unit included in the control unit of the server SV1 is realized by a program module read into the memory space of the control unit. This is because the stereo camera SC1 does not show the control unit, but each function unit is realized by a program module read into the memory space of the control unit, or each function unit is realized by a built-in GPS unit or camera unit. It is possible to realize it. Normally, the PC operates as the present device by downloading software that causes the processor to function as each part of the present device from a storage unit or a website, installing the software on the PC, and starting the software. It should be noted that each functional unit provided in the control unit is merely a collection of steps having a certain functional cohesiveness, and a plurality of functional units may be combined into one functional unit, or a part thereof may be used as another function. It can be incorporated into parts or divided into other independent functional parts.

このように、生成・抽出した情報や中間データおよび取得したデータを外部に送信したり、表示部に表示したり、生成・抽出した情報や中間データおよび取得したデータなどを記憶部に格納したりすることは、後述する他の実態態様でも同様に可能であることに注意されたい。なお、本装置は、汎用コンピュータ、特定用途コンピュータ、サーバ、PC、スマートフォンなどの携帯端末などのコンピュータ、或いは、本装置の機能や処理手順(方法)をコンピュータ上で実現(実行)するプログラムモジュールをコンピュータが持つCPUや記憶部に保持したり、外部のサーバやストレージから読み込んだりすることで、コンピュータ上に本装置を構築することが好適であり、後続の各実施態様においても同様である。また、各機能部は、ネットワークで接続された別個のコンピュータや装置に分散させてもよい。また、複数の機能部を1つにしたり、処理ステップの一部を他の機能部にさせたりするような形態でもよい。さらに、本実施態様では、サーバとステレオカメラを別個のものとして規定したが、ステレオカメラ内にサーバの各機能の一部または全てを含ませてもよい。 In this way, the generated / extracted information, intermediate data, and acquired data can be transmitted to the outside and displayed on the display unit, and the generated / extracted information, intermediate data, and acquired data can be stored in the storage unit. It should be noted that this is also possible in other real-world embodiments described below. This device is a computer such as a general-purpose computer, a special-purpose computer, a server, a PC, or a mobile terminal such as a smartphone, or a program module that realizes (executes) the functions and processing procedures (methods) of this device on the computer. It is preferable to construct the present device on the computer by holding it in the CPU or storage unit of the computer or reading it from an external server or storage, and the same applies to each subsequent embodiment. In addition, each functional unit may be distributed to separate computers and devices connected by a network. Further, a plurality of functional units may be combined into one, or a part of the processing step may be made into another functional unit. Further, in the present embodiment, the server and the stereo camera are defined as separate ones, but a part or all of each function of the server may be included in the stereo camera.

図2は、図1に示したシステムで実行される処理の一例を示すシーケンス図である。図に示すように、ステレオカメラSC1,サーバSV1,敷地情報サーバRES1の3つの装置が連携して処理を行う。敷地情報サーバRES1や他のサーバにある敷地情報をサーバSV1が一旦格納しておけば、敷地情報サーバRES1との連携は不要とすることも可能である。 FIG. 2 is a sequence diagram showing an example of the processing executed by the system shown in FIG. As shown in the figure, the three devices of the stereo camera SC1, the server SV1, and the site information server RES1 cooperate to perform processing. Once the server SV1 stores the site information in the site information server RES1 and other servers, it is possible to eliminate the need for cooperation with the site information server RES1.

ステレオカメラSC1のステップS11にて、撮像部CAMが、ステレオ画像を撮像する。ちなみに、撮像は、継続的に行ってもよいが、通信量や処理量を低減するために、フレームを間引きしたり、静止画を数秒間隔で実施したりすることが好適である。次に、ステップS12にて、位置測定部POMが自装置の位置を測定する。次に、ステップS13にて、方向測定部DIMが、自装置の撮像部の方向を測定する。次に、ステップS14にて、通信部COMが、ステレオ画像、位置、および、方向をサーバに送信する。このとき、カメラの撮像設定値(画角、ズーム、画素数、など)を併せて送信することが好適である。なお、ステレオ画像、位置、および、方向は、まとめて送信してもよいし、個別に送信してもよい。 In step S11 of the stereo camera SC1, the image pickup unit CAM captures a stereo image. Incidentally, although imaging may be performed continuously, it is preferable to thin out frames or perform still images at intervals of several seconds in order to reduce the amount of communication and processing. Next, in step S12, the position measuring unit POM measures the position of the own device. Next, in step S13, the direction measuring unit DIM measures the direction of the imaging unit of the own device. Next, in step S14, the communication unit COM transmits a stereo image, a position, and a direction to the server. At this time, it is preferable to also transmit the image pickup set values (angle of view, zoom, number of pixels, etc.) of the camera. The stereo image, position, and direction may be transmitted together or individually.

この後、処理はサーバSV1に移る。サーバSV1のステップV11にて、通信部COMが、ステレオカメラから送信されたステレオ画像、位置、および、方向を受信する。次に、ステップV12にて、取得部ACQは、位置に関する敷地情報要求を敷地情報サーバRES1に送信する。或いは、取得部ACQは、受信した位置の敷地に関する敷地情報を自装置内の記憶部MEMから読み出して取得してもよい。 After that, the processing moves to the server SV1. In step V11 of the server SV1, the communication unit COM receives the stereo image, position, and direction transmitted from the stereo camera. Next, in step V12, the acquisition unit ACQ transmits a site information request regarding the location to the site information server RES1. Alternatively, the acquisition unit ACQ may acquire the site information regarding the site at the received position by reading it from the storage unit MEM in the own device.

この後、処理は敷地情報サーバRES1に移る。敷地情報サーバRES1のステップR11にて、位置に関する敷地情報要求を受信する。そして、ステップR12にて、位置(住所、緯度・経度など絶対座標など)に基づき、敷地情報(緯度、経度、敷地の形状、面積、矩形の場合は、四隅の座標など)を読み出す。ステップR13にて、読み出した敷地情報をサーバSV1に送信する。 After that, the processing is transferred to the site information server RES1. In step R11 of the site information server RES1, the site information request regarding the location is received. Then, in step R12, the site information (latitude, longitude, site shape, area, in the case of a rectangle, the coordinates of the four corners, etc.) is read out based on the position (absolute coordinates such as address, latitude / longitude, etc.). In step R13, the read site information is transmitted to the server SV1.

この後、処理はサーバSV1に戻る。サーバSV1は、敷地情報を受信し、その後、ステップV13にて、監視線設定部MLSが、位置、方向、および、敷地情報に基づき、ステレオ画像内における敷地の輪郭の少なくとも一部を形成する境界線(境界の各座標)を求め、ステレオ画像内において該境界線を監視線に設定する。そして、ステップV14にて、監視部MONは、ステレオ画像を解析して、設定した監視線に接触する(或いは、監視線を越えて敷地に侵入する)対象を認識するまで監視を継続する。最後に、ステップV15にて、警報出力部WOTは、監視線に接触する対象を認識したとき、所定の警報(電子メールの送信、警告音声の出力や送信、警備会社や警察などへの通報など)を出力する。或いは、撮影した画像を当該敷地の所有者(警備会社の契約者など)の携帯端末に送信してもよい。 After this, the process returns to the server SV1. The server SV1 receives the site information, and then, in step V13, the boundary where the monitoring line setting unit MLS forms at least a part of the outline of the site in the stereo image based on the position, the direction, and the site information. A line (each coordinate of the boundary) is obtained, and the boundary line is set as a monitoring line in the stereo image. Then, in step V14, the monitoring unit MON analyzes the stereo image and continues monitoring until it recognizes an object that comes into contact with the set monitoring line (or crosses the monitoring line and invades the site). Finally, in step V15, when the alarm output unit WOT recognizes an object that comes into contact with the monitoring line, a predetermined alarm (sending an e-mail, outputting or transmitting a warning voice, reporting to a security company, police, etc., etc.) ) Is output. Alternatively, the captured image may be transmitted to the mobile terminal of the owner of the site (such as a contractor of a security company).

なお、ステップV14とV15との間に、何らかのさらなる判定条件を付加してもよい。例えば、本サーバは、監視線に接触した対象の高さを求める機能があり、これを用いて、高さ150cm以上のものだけ、150cm〜190cm(即ち、大人)だけ、ステップV15に進ませ、それ以外は、除外するようにしてもよい。これによって、150cm未満の子供、または、犬、猫、鳥、虫などの小動物を効果的に除外することが可能となる。 In addition, some further determination condition may be added between steps V14 and V15. For example, this server has a function of finding the height of an object in contact with a monitoring line, and by using this, only those with a height of 150 cm or more, 150 cm to 190 cm (that is, adults) can proceed to step V15. Other than that, it may be excluded. This makes it possible to effectively exclude children smaller than 150 cm or small animals such as dogs, cats, birds and insects.

また、ドップラーセンサーをカメラやその近傍に設置し、監視線に接触した対象の心拍数を測定し、人間の心拍数の範囲のものだけステップV15に進ませ、それ以外は、除外するようにしてもよい。これによって、犬、猫、鳥、虫などの小動物を効果的に除外することが可能となる。 In addition, a Doppler sensor is installed in or near the camera to measure the heart rate of the target in contact with the monitoring line, and only those within the human heart rate range are advanced to step V15, and the others are excluded. May be good. This makes it possible to effectively exclude small animals such as dogs, cats, birds and insects.

図3は、図1に示したシステムで実行される処理の他の一例を示すシーケンス図である。図3の処理は、言及しない限り図2の処理と同じである。異なる処理は、図3では、図2のステップV15に代えて、ステップV16−V19を行う点である。図2の処理は、認識精度や画像認識の速度を除けば、ステレオ画像(2つの画像)の1つの画像のみでも実現可能である。図3は、ステレオ画像の利点である、視差画像などの距離認識技法を用いて対象までの距離認識を活用した態様である。図3に示すように、ステップV14にて、監視線に接触する対象(人物、物など)を認識した後、ステップV16にて、距離算出部DEが、ステレオカメラから該対象までの距離を求める。ステップV17では、求めた距離と、該対象が接触した監視線の位置から前記ステレオカメラまでの距離とがほぼ同じか否か(プラスマイナス30cm、1m程度(その差が所定の数値以下の場合)など状況やカメラ精度などによって実用的な範囲に設定する)を判定する。距離が同じでない場合(判定条件を満たさない場合)は、ステップV19に進み、対象の誤認定とみなし、警報を出力しない。誤認定の典型は、近くを横切る虫、鳥、雨、煙、雪などであり、または、遠くの鳥、人間、車両、小動物、雨、煙、雪などであり、本処理によって、これらのノイズを除外することが可能となる。また、光なども誤認定の要因になるが、ステレオ画像は光の影響を低減した画像認識が可能である。ステップV17の判定条件を満たす場合、即ち、距離がほぼ同じ場合は、ステップV18にて、警報出力部が、警報を出力して、処理を終える。 FIG. 3 is a sequence diagram showing another example of the processing executed by the system shown in FIG. The process of FIG. 3 is the same as the process of FIG. 2 unless otherwise mentioned. The different process is that in FIG. 3, steps V16-V19 are performed instead of step V15 in FIG. The processing of FIG. 2 can be realized with only one image of a stereo image (two images) except for the recognition accuracy and the speed of image recognition. FIG. 3 is an embodiment in which distance recognition to an object is utilized by using a distance recognition technique such as a parallax image, which is an advantage of a stereo image. As shown in FIG. 3, after recognizing an object (person, object, etc.) in contact with the monitoring line in step V14, the distance calculation unit DE obtains the distance from the stereo camera to the object in step V16. .. In step V17, whether or not the obtained distance and the distance from the position of the monitoring line in contact with the object to the stereo camera are approximately the same (plus or minus 30 cm, about 1 m (when the difference is less than or equal to a predetermined value)). Set to a practical range depending on the situation and camera accuracy). If the distances are not the same (when the determination conditions are not satisfied), the process proceeds to step V19, which is regarded as a false recognition of the target and no alarm is output. Typical misidentifications are insects, birds, rain, smoke, snow, etc. that cross nearby, or distant birds, humans, vehicles, small animals, rain, smoke, snow, etc. Can be excluded. In addition, although light and the like also cause misidentification, stereo images can be recognized with reduced influence of light. When the determination condition of step V17 is satisfied, that is, when the distances are substantially the same, the alarm output unit outputs an alarm in step V18 and ends the process.

図4は、本システムのステレオカメラを設置したときの監視線の自動設定を示す模式図である。図に示すように、地図MAPの敷地SSにステレオカメラSC1が設置される。本システムは、カメラのGPSユニットにより敷地SSの位置を特定し、敷地SSの敷地情報を取得する。敷地情報によれば、敷地SSは矩形であり、4つの境界点A,B,C,Dの各点の座標を求める。これら4点を結んだ4辺が境界線であり、この4辺を監視線ML(バーチャルフェンス)に設定する。カメラは、上の辺である境界点Aと境界点Dとを結んだ監視線を撮影する方向に設置されている。即ち、最終的には、カメラ(方位センサ、姿勢センサ、GPS)のステレオ画像SIにおいて、求めた座標の位置に監視線(バーチャルフェンス)を自動設定する。これは、カメラがどの方向を向いていても、境界線が写っていれば、当該境界線の座標を画像内にマッピング(投影)して、写った境界線が占める部分を監視線に自動設定できる。ユーザは、カメラを境界線が写る向きに数台設置すれば、敷地をぐるりと監視線で囲み完全に監視下に置くことも可能である。 FIG. 4 is a schematic diagram showing the automatic setting of the monitoring line when the stereo camera of this system is installed. As shown in the figure, the stereo camera SC1 is installed on the site SS of the map MAP. This system identifies the position of the site SS by the GPS unit of the camera and acquires the site information of the site SS. According to the site information, the site SS is a rectangle, and the coordinates of each of the four boundary points A, B, C, and D are obtained. The four sides connecting these four points are the boundary lines, and these four sides are set as the monitoring line ML (virtual fence). The camera is installed in the direction of photographing the monitoring line connecting the boundary point A and the boundary point D, which are the upper sides. That is, finally, in the stereo image SI of the camera (direction sensor, attitude sensor, GPS), the monitoring line (virtual fence) is automatically set at the position of the obtained coordinates. No matter which direction the camera is facing, if the boundary line is visible, the coordinates of the boundary line are mapped (projected) in the image, and the part occupied by the captured boundary line is automatically set as the monitoring line. can. If several cameras are installed so that the boundary line can be seen, the user can surround the site with a monitoring line and put it completely under surveillance.

図5は、図4のカメラを他の方向に向けたときに画面上でどのように見えるかを説明する模式図である。図に示すように、敷地内の右下の方からステレオカメラを境界点Dに向けたときは、ステレオ画像SIでは、監視線ML,監視線ML1、境界点Dが映し出される。本装置は、この2本の監視線ML,監視線ML1を監視すべき対象エリアとして扱う。好適には、下にあるブロック分割画像SI―Sのように、画像を適正なブロック数に分割して、監視線ML,監視線ML1がかかるブロックだけを監視対象にする。これで処理量を大幅に低減できる。図では、4×6=24ブロックに分割し、監視対象ブロックは、24個中の7個だけなので7/24に演算処理を低減することが可能となる。分割数を適正な数まで増加されれば、さらに大幅に演算処理を低減することができる。監視部MONや距離測定部DEは、これらの監視対象のブロックのみを監視して、不審な対象を捕捉したり、補足した不審な対象までの距離を算出したりすることが好適である。 FIG. 5 is a schematic diagram illustrating what the camera of FIG. 4 looks like on the screen when pointed in the other direction. As shown in the figure, when the stereo camera is pointed at the boundary point D from the lower right side of the site, the monitoring line ML, the monitoring line ML1, and the boundary point D are projected on the stereo image SI. This device treats these two monitoring lines ML and monitoring line ML1 as target areas to be monitored. Preferably, the image is divided into an appropriate number of blocks, such as the block-divided image SI-S below, and only the blocks covered by the monitoring line ML and the monitoring line ML1 are monitored. This can significantly reduce the amount of processing. In the figure, it is divided into 4 × 6 = 24 blocks, and since the number of monitored blocks is only 7 out of 24, it is possible to reduce the arithmetic processing to 7/24. If the number of divisions is increased to an appropriate number, the arithmetic processing can be further significantly reduced. It is preferable that the monitoring unit MON and the distance measuring unit DE monitor only the blocks of these monitoring targets to capture the suspicious target or calculate the distance to the supplemented suspicious target.

図6は、図1に示したシステムで実行される処理の他の一例を示すシーケンス図である。図6の処理は、言及しない限り図3の処理と同じであるが、サーバSV1の処理の一部を抜き出したものである。図6では、図3のステップV13に代えて、ステップV13−a、V13−bを行う点である。図5に示すように、ステップV13−aにて、ステレオ画像内において敷地の境界線を求める。テップV13−bにて、境界線上やその近傍にフェンスや塀がある場合、監視線をフェンスの上端に設定(即ち、移動)する。監視線が地上(地平面、即ち、高さ0m)にあって、フェンスや塀がある場合には、フェンスや塀の上によじ登った不審者が、完全に敷地に入るまでは、不審者として捕捉できない。これを防止して、不審者を確実に捕捉するために、物理フェンスPF1の上端(好適にはやや下側)に監視線ML4,ML5を設定する。次に、ステップV14にて、このようにフェンス上端に設定された各監視線に接触する対象(人物、物など)を認識する。フェンスや塀の認識は、画像処理でエッジ部と塀端部の特徴量の変化などがエッジを切り出すことが可能であり、このような従来の画像処理技法を用いる。また、塀の高さが異なる場合は、そこを結ぶ縦に垂直な端部にも監視線を設けることが好適である。 FIG. 6 is a sequence diagram showing another example of the processing executed by the system shown in FIG. The process of FIG. 6 is the same as the process of FIG. 3 unless otherwise mentioned, but a part of the process of the server SV1 is extracted. In FIG. 6, instead of step V13 in FIG. 3, steps V13-a and V13-b are performed. As shown in FIG. 5, in step V13-a, the boundary line of the site is obtained in the stereo image. In Tep V13-b, if there is a fence or fence on or near the boundary line, the monitoring line is set (that is, moved) at the upper end of the fence. If the monitoring line is on the ground (ground plane, that is, 0 m in height) and there is a fence or fence, a suspicious person who climbs on the fence or fence will be regarded as a suspicious person until it completely enters the site. Cannot be captured. In order to prevent this and reliably capture the suspicious person, monitoring lines ML4 and ML5 are set at the upper end (preferably slightly lower side) of the physical fence PF1. Next, in step V14, an object (person, object, etc.) that comes into contact with each monitoring line set at the upper end of the fence is recognized. For the recognition of fences and fences, it is possible to cut out edges by changing the feature amount of the edge portion and the fence end portion by image processing, and such a conventional image processing technique is used. If the heights of the fences are different, it is preferable to provide a monitoring line at the vertically vertical ends connecting the fences.

図7は、図6のように監視線をフェンス上端に設置したときに画面上でどのように見えるかを説明する模式図である。ステレオ画像SI11が、境界線をそのまま監視線に設定したものであり、ステレオ画像SI12が、境界線ではなく、フェンス上端(正確にはやや下側)に監視線に設定したものである。図に示すように、ステレオ画像SI11では、監視線ML2,ML3が地上に設定されているため、物理フェンスPF1に不審者UIPが乗っても警報を発することができない。他方、ステレオ画像SI12では、監視線ML4,ML5が物理フェンスPF1の上端に設定されているため、不審者UIPが物理フェンスPF1に乗ったことを検知して、警報を発することができる。また、監視線に手をかけて敷地内の様子を探るなどの、不審な行為も検知することが可能である。また、監視線ML4,ML5は、高さが異なるため、上端以外にも監視線を設定する必要がある。それが、監視線ML6である。このように、物理フェンスの場合には、上端以外の「端部」にも監視線を設定することが好適である。また、上端のやや下側や、端部の内側の方に、監視線を設定することで、外を通り過ぎるだけの無関係な者などを除外して、誤警報を防止することが可能となる。 FIG. 7 is a schematic diagram illustrating what the monitoring line looks like on the screen when the monitoring line is installed at the upper end of the fence as shown in FIG. The stereo image SI11 sets the boundary line as the monitoring line as it is, and the stereo image SI12 sets the boundary line not as the boundary line but as the monitoring line at the upper end of the fence (to be exact, slightly below). As shown in the figure, in the stereo image SI11, since the monitoring lines ML2 and ML3 are set on the ground, even if a suspicious person UIP gets on the physical fence PF1, an alarm cannot be issued. On the other hand, in the stereo image SI12, since the monitoring lines ML4 and ML5 are set at the upper ends of the physical fence PF1, it is possible to detect that the suspicious person UIP has entered the physical fence PF1 and issue an alarm. In addition, it is possible to detect suspicious acts such as searching the inside of the site by touching the monitoring line. Further, since the heights of the monitoring lines ML4 and ML5 are different, it is necessary to set a monitoring line other than the upper end. That is the monitoring line ML6. As described above, in the case of a physical fence, it is preferable to set a monitoring line at the "end" other than the upper end. In addition, by setting a monitoring line slightly below the upper end or toward the inside of the end, it is possible to exclude unrelated persons who just pass outside and prevent false alarms.

図8は、図1に示したシステムで実行される処理の他の一例を示すシーケンス図である。図8の処理は、言及しない限り図3の処理と同じである。異なる処理は、図3では、図8のステップV13、V14に代えて、ステップV13−1、V14−1を行う点である。図8に示すように、ステップV13−1にて、ステレオ画像内において敷地の境界線を求め、境界線を監視線に設定し、さらにその上方に所定の間隔で所定の高さまたは所定の本数まで複数の監視線を設定する。次に、ステップV14にて、各監視線に接触する対象(人物、物など)を認識する。このように、複数の監視線をあたかもフェンスのように、幾つか設定することによって、実質的監視面として機能させることが可能となる。 FIG. 8 is a sequence diagram showing another example of the processing executed by the system shown in FIG. The process of FIG. 8 is the same as the process of FIG. 3 unless otherwise mentioned. The different process is that in FIG. 3, steps V13-1 and V14-1 are performed instead of steps V13 and V14 in FIG. As shown in FIG. 8, in step V13-1, the boundary line of the site is obtained in the stereo image, the boundary line is set as the monitoring line, and the boundary line is set above the boundary line at a predetermined height or a predetermined number at a predetermined interval. Set up multiple monitoring lines up to. Next, in step V14, an object (person, object, etc.) that comes into contact with each monitoring line is recognized. In this way, by setting several monitoring lines as if they were fences, it is possible to make them function as a substantial monitoring surface.

図9は、本システムのステレオカメラを設置したときの複数の監視線の自動設定を示す模式図である。図に示すように、左側がステレオ画像に設定される監視線があり、右側がそれに対応する実際の敷地上の監視線の配置がある。まず、左上のステレオ画像SI10のように、1つの監視線ML1が設定される。これに対応するのが、右上の敷地SS10の監視線ML1である。X軸とY軸に平行な地平面である敷地SS10の境界線が監視線となる。 FIG. 9 is a schematic diagram showing automatic setting of a plurality of monitoring lines when the stereo camera of this system is installed. As shown in the figure, the left side has the monitoring line set for the stereo image, and the right side has the corresponding arrangement of the monitoring line on the site. First, one monitoring line ML1 is set as in the stereo image SI10 on the upper left. Corresponding to this is the monitoring line ML1 on the site SS10 on the upper right. The boundary line of the site SS10, which is a ground plane parallel to the X-axis and the Y-axis, is the monitoring line.

この監視線ML1に基づき、X軸とY軸に垂直な(鉛直方向)Z軸に沿って、上方に、監視線ML1から所定高さに2本目の、監視線ML2を設定する。これを繰り返し、監視線ML3、ML4を順次設定する。これら複数の監視線によって実質的監視面MPを敷地の境界線上に設定することが可能となる。これの利点は、線で監視しているため、監視面の全体を監視対象にすることが不要であるため、監視のための演算量を大幅に低減できることである。このような実質的監視面を4辺全ての境界線に設定すれば、敷地を完全に監視下に置くことも可能である。なお、図では、作図の便宜上、監視線が太いは実際には数cm程度まで細くすることが可能である。 Based on this monitoring line ML1, a monitoring line ML2, which is a second line at a predetermined height from the monitoring line ML1, is set upward along the Z-axis perpendicular to the X-axis and the Y-axis (vertical direction). This is repeated, and the monitoring lines ML3 and ML4 are sequentially set. These plurality of monitoring lines make it possible to set a substantial monitoring surface MP on the boundary line of the site. The advantage of this is that since the monitoring is performed by a line, it is not necessary to cover the entire monitoring surface as a monitoring target, so that the amount of calculation for monitoring can be significantly reduced. By setting such a substantial monitoring surface at the boundary line of all four sides, it is possible to put the site under complete monitoring. In the figure, for convenience of drawing, the thick monitoring line can actually be thinned to about several cm.

図10は、本システムの監視下にある敷地に接近する対象を不審物として検知するシーンを説明する模式図である。図に示すように、上のシーンSCN21は、ドローンDR1は監視面から遠く離れているため、不審物ではないとして発報しない。敷地SS20の建物CONS2にはステレオカメラSC2が設置され、実質的監視面MP23を画像内に映している。そして、画面上では、ドローンDR1は、実質的監視面MP23に接触していると認識する。これは図5のステップV14−1の段階である。しかし、図に示すように、ドローンDR21は監視面から遠く離れているため、ステップV16,V17の処理により、カメラから監視面までの距離と、カメラから対象であるドローンDR1までの距離が異なる(ほぼ同じでない)ため不審物ではないとして発報しない。 FIG. 10 is a schematic diagram illustrating a scene in which an object approaching a site under the supervision of this system is detected as a suspicious object. As shown in the figure, the above scene SCN21 does not report that the drone DR1 is not a suspicious object because it is far from the monitoring surface. A stereo camera SC2 is installed in the building CONS2 of the site SS20, and a substantial monitoring surface MP23 is projected in the image. Then, on the screen, the drone DR1 recognizes that it is in contact with the substantially monitoring surface MP23. This is the stage of step V14-1 in FIG. However, as shown in the figure, since the drone DR21 is far away from the monitoring surface, the distance from the camera to the monitoring surface and the distance from the camera to the target drone DR1 are different due to the processing of steps V16 and V17 (the distance from the camera to the target drone DR1 is different (). Since it is not almost the same), it will not be reported as not a suspicious object.

図に示すように、下のシーンSCN22は、ドローンDR1は監視面MP23に接触しているため、不審物として検知し、警報を発する(発報する)。このとき、実際の画面上では、ドローンがどのように映っているのか次の図で説明する。 As shown in the figure, in the scene SCN22 below, since the drone DR1 is in contact with the monitoring surface MP23, it is detected as a suspicious object and an alarm is issued (alarmed). At this time, the following figure will explain how the drone looks on the actual screen.

図11は、図10の各シーンが画面上でどのように見えるかを説明する模式図である。上のステレオ画像SI21は、ドローンDR1が監視面から遠くにあるシーンSCN21であり、下のステレオ画像SI2221はドローンDR1が監視面も接触しているシーンSCN22である。本装置は画面上の実質的監視面に接触している対象(ドローン、人など)を検出したときは、不審物を検出したものと一次的に判断する。即ち、2つのシーンでは、双方とも、不審物を検出したものと一次的に判断する。しかし、このような判断では、敷地SS20の外にあるドローン、人、動物、または、近くにある対象(虫、雨粒、花びら、雪、あられ、ごみ、など)などを不審な対象とみなすことになり、誤警報となってしまう。そこで、ステレオカメラの距離認識機能を用いて、一次的に不審な対象とみなしたものを、その対象までの距離を計算し、それによって、監視面に対象が触れているか否かを判定し、触れているものだけ(距離が監視面近傍の値を示すものだけ)を不審な対象とみなし、それ以外を不審ではないもの、或いは、ノイズや誤検出として排除する。図に示すように、距離認識を用いて、遠くの対象(雨、ドローン、人など)や、近くの雨粒や、虫、鳥などを排除して、誤警報を劇的に低減することが可能となる。 FIG. 11 is a schematic diagram illustrating how each scene of FIG. 10 looks on the screen. The upper stereo image SI21 is a scene SCN21 in which the drone DR1 is far from the monitoring surface, and the lower stereo image SI2221 is a scene SCN22 in which the drone DR1 is also in contact with the monitoring surface. When the device detects an object (drone, person, etc.) that is in contact with the actual monitoring surface on the screen, it temporarily determines that a suspicious object has been detected. That is, in both of the two scenes, it is temporarily determined that a suspicious object has been detected. However, in such a judgment, drones, people, animals, or nearby objects (insects, raindrops, petals, snow, hail, garbage, etc.) outside the site SS20 will be regarded as suspicious objects. It becomes a false alarm. Therefore, using the distance recognition function of the stereo camera, the distance to the object that is temporarily regarded as a suspicious object is calculated, and it is determined whether or not the object is touching the monitoring surface. Only touching objects (only those whose distance indicates a value near the monitoring surface) are regarded as suspicious objects, and others are excluded as non-suspicious objects, noise, or false detection. As shown in the figure, distance recognition can be used to eliminate distant objects (rain, drones, people, etc.), nearby raindrops, insects, birds, etc., dramatically reducing false alarms. It becomes.

図12は、本発明の一実施態様による監視システムの概要を示すブロック図である。図に示すように、監視システムMS2は、ステレオカメラSC2とサーバSV2とを含むものである。サーバSV2は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部(図示せず)、出力部(図示せず)、通信部COM、記憶部MEM、および、表示部DISを有する。ステレオカメラSCは、制御部(CPU、演算処理装置、プロセッサ、図示せず)、通信部COMを有するが、さらに、入力部(図示せず)、出力部(図示せず)、記憶部(図示せず)および、表示部(図示せず)を有してもよい。 FIG. 12 is a block diagram showing an outline of a monitoring system according to an embodiment of the present invention. As shown in the figure, the monitoring system MS2 includes a stereo camera SC2 and a server SV2. The server SV2 has a control unit (CPU, arithmetic processing unit, processor) CON, an input unit (not shown), an output unit (not shown), a communication unit COM, a storage unit MEM, and a display unit DIS. The stereo camera SC has a control unit (CPU, arithmetic processing unit, processor, not shown) and a communication unit COM, but further includes an input unit (not shown), an output unit (not shown), and a storage unit (not shown). It may have a display unit (not shown) and a display unit (not shown).

図12の監視システムは、図1のものと言及しない限り同じものである。大きく異なるのは、図12では、監視線ではなく監視面を設定し、これを監視することである。 The monitoring system of FIG. 12 is the same as that of FIG. 1 unless otherwise noted. The major difference is that in FIG. 12, a monitoring surface is set and monitored instead of a monitoring line.

サーバSV2が、ステレオカメラから送信されたステレオ画像、位置、および、方向を受信する通信部COMと、ネットワークNETを介して接続された敷地情報サーバRESまたは記憶部MEMなどから、位置の敷地に関する敷地情報を取得する取得部ACQと、位置、方向、および、敷地情報に基づき、ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、該境界線を含む境界面であって、該境界線から上方に垂直に延びているような境界面(境界線で外部とを仕切る面の空間座標など)を、前記ステレオ画像内において監視面に設定する監視面設定部MPSと、ステレオ画像を解析して、監視面に接触する対象を認識する監視部MONと、監視面に接触する対象を認識したとき、所定の警報(電子メール、警告音声、警告音、警備会社や警察などへの通報など)を出力する警報出力部WOTと、を有する。制御部CONは、ステレオ画像(2つの画像)のうちの特定領域(対象が存在する部分など)と自装置との距離を、既知のステレオ画像距離解析技法などを用いて、算出する距離算出部DEを含む。距離算出部や監視線設定部などは、ソフトウェアで実現してもよいが、回路化してハードウェアとして実現する方がより高速処理可能となる。表示部DISは、本装置に格納される情報や生成された情報を表示することができる。 The site related to the site where the server SV2 is located from the site information server RES or the storage unit MEM connected via the network NET to the communication unit COM that receives the stereo image, position, and direction transmitted from the stereo camera. Based on the acquisition unit ACQ for acquiring information, the position, the direction, and the site information, a boundary line (coordinates of the boundary) forming at least a part of the contour of the site in the stereo image is obtained, and the boundary line is included. A monitoring surface setting that sets a boundary surface that extends vertically upward from the boundary line (such as the spatial coordinates of the surface that separates the outside from the outside by the boundary line) as the monitoring surface in the stereo image. When the MPS and the monitoring unit MON that analyzes the stereo image to recognize the object that comes into contact with the monitoring surface and the object that comes into contact with the monitoring surface are recognized, a predetermined alarm (e-mail, warning sound, warning sound, security) It has an alarm output unit WOT that outputs (reports to the company, police, etc.). The control unit CON is a distance calculation unit that calculates the distance between a specific area (a part where an object exists, etc.) of a stereo image (two images) and its own device using a known stereo image distance analysis technique or the like. Including DE. The distance calculation unit and the monitoring line setting unit may be realized by software, but it is possible to perform higher-speed processing by forming a circuit and realizing it as hardware. The display unit DIS can display the information stored in the apparatus and the generated information.

図13は、図12に示したシステムで実行される処理の他の一例を示すシーケンス図である。図13の処理は、言及しない限り図2の処理と同じである。異なる処理は、図13では、図2のステップV13−15に代えて、ステップV23−V25を行う点である。即ち、図13の処理は、監視線ではなく監視面の処理を行うことである。図に示すように、サーバSV2は、敷地情報を受信し、その後、ステップV23にて、監視面設定部MPSが、位置、方向、および、敷地情報に基づき、ステレオ画像内における前記敷地の輪郭の少なくとも一部を形成する境界線(境界の座標)を求め、該境界線を含む境界面であって、該境界線から上方に垂直に延びているような境界面(境界線で外部とを仕切る面の空間座標など)を、前記ステレオ画像内において監視面に設定する。そして、ステップV24にて、監視部MONは、ステレオ画像を解析して、設定した監視面に接触する(或いは、監視面を越えて敷地に侵入する)対象を認識するまで監視を継続する。最後に、ステップV25にて、警報出力部WOTは、監視面に接触する対象を認識したとき、所定の警報(電子メールの送信、警告音声の出力や送信、警備会社や警察などへの通報など)を出力する。 FIG. 13 is a sequence diagram showing another example of the processing executed by the system shown in FIG. The process of FIG. 13 is the same as the process of FIG. 2 unless otherwise mentioned. The different process is that in FIG. 13, steps V23-V25 are performed instead of steps V13-15 in FIG. That is, the process of FIG. 13 is to process the monitoring surface instead of the monitoring line. As shown in the figure, the server SV2 receives the site information, and then in step V23, the monitoring surface setting unit MPS determines the outline of the site in the stereo image based on the position, direction, and site information. A boundary line (coordinates of the boundary) that forms at least a part of the boundary line is obtained, and a boundary surface that includes the boundary line and extends vertically upward from the boundary line (the boundary line separates the outside from the outside). (Spatial coordinates of the surface, etc.) are set as the monitoring surface in the stereo image. Then, in step V24, the monitoring unit MON analyzes the stereo image and continues monitoring until it recognizes an object that comes into contact with the set monitoring surface (or enters the site beyond the monitoring surface). Finally, in step V25, when the alarm output unit WOT recognizes an object that comes into contact with the monitoring surface, a predetermined alarm (sending an e-mail, outputting or transmitting a warning voice, reporting to a security company, police, etc., etc.) ) Is output.

図3の処理のように、カメラから対象までの距離を求めて、カメラから監視面までの距離と比較してほぼ同じ場合だけ警報を発し、そうでない場合は、警報を発しないという処理は、図12のシステムでも同様に行うことが可能である。 As in the process of FIG. 3, the process of finding the distance from the camera to the target and issuing an alarm only when the distance from the camera to the monitoring surface is almost the same, and not issuing an alarm otherwise, is The same can be done with the system of FIG.

図14は、本システムのステレオカメラを設置したときの複数の監視面の自動設定を示す模式図である。図に示すように、シーンSCN21のように、敷地SS20に建物CONS2があるものとする。まず、シーンSCN22のように、X軸に沿って敷地の境界線BDYがあるものとする。本システムは、この境界線BDYを垂直にZ軸方向に所定の高さ(好適には建物の数m上まで)まで伸ばした監視面MP21を設定する。続いて、シーンSCN23のように、Y軸に沿って敷地の境界線があるものとする。本システムは、この境界線を地平面(X−Y平面)から垂直にZ軸方向に所定の高さ(好適には建物の数m上まで)まで伸ばした監視面MP22(バーチャルフェンス)を設定する。その後、順次、監視面MP23,MP25を設定する。そして、最終的には、上面を塞ぐかたちで、監視面MP24を設定する。これは、いわば、鳥籠のように敷地および建物の全体を囲むものであり、これら監視面を全て映すように、カメラを複数設置すれば、敷地を完全に監視下に置くことが可能である。これによって、ドローンで上空から接近してくる場合や、クレーンなどで上部から侵入してくる不審者なども適切に監視対象として認識することが可能となる。 FIG. 14 is a schematic diagram showing automatic setting of a plurality of monitoring surfaces when a stereo camera of this system is installed. As shown in the figure, it is assumed that there is a building CONS2 on the site SS20 as in the scene SCN21. First, it is assumed that there is a boundary line BDY of the site along the X axis as in the scene SCN22. This system sets a monitoring surface MP21 that extends this boundary line BDY vertically to a predetermined height (preferably up to several meters above the building) in the Z-axis direction. Subsequently, it is assumed that there is a boundary line of the site along the Y axis as in the scene SCN23. This system sets a monitoring surface MP22 (virtual fence) that extends this boundary line vertically from the ground plane (XY plane) to a predetermined height (preferably up to several meters above the building) in the Z-axis direction. do. After that, the monitoring surfaces MP23 and MP25 are sequentially set. Finally, the monitoring surface MP24 is set so as to close the upper surface. It surrounds the entire site and building like a bird cage, and if multiple cameras are installed to cover all of these monitoring surfaces, the site can be completely under surveillance. .. As a result, it becomes possible to appropriately recognize a suspicious person who approaches from the sky with a drone or a suspicious person who invades from above with a crane or the like as a monitoring target.

図15は、本システムのステレオカメラを設置したときの複数の監視面の自動設定が完了したときを示す模式図である。図に示すように、シーンSCN25では、建物CONS2,敷地SS20が完全に監視面MP21,22,23、24,25の5つの面で囲まれており、完璧な監視体制をとることが可能である。 FIG. 15 is a schematic diagram showing when the automatic setting of a plurality of monitoring surfaces when the stereo camera of this system is installed is completed. As shown in the figure, in the scene SCN25, the building CONS2 and the site SS20 are completely surrounded by the five monitoring surfaces MP21, 22, 23, 24, and 25, and it is possible to take a perfect monitoring system. ..

図16は、本発明の一実施態様による監視システムの概要を示すブロック図である。図に示すように、監視システムMS3は、ステレオカメラSC2とサーバSV2とを含むものである。サーバSV3は、制御部(CPU、演算処理装置、プロセッサ)CON、入力部(図示せず)、出力部(図示せず)、通信部COM、記憶部MEM、および、表示部DISを有する。ステレオカメラSCは、制御部(CPU、演算処理装置、プロセッサ、図示せず)、通信部COMを有するが、さらに、入力部(図示せず)、出力部(図示せず)、記憶部(図示せず)および、表示部(図示せず)を有してもよい。 FIG. 16 is a block diagram showing an outline of a monitoring system according to an embodiment of the present invention. As shown in the figure, the monitoring system MS3 includes a stereo camera SC2 and a server SV2. The server SV3 has a control unit (CPU, arithmetic processing unit, processor) CON, an input unit (not shown), an output unit (not shown), a communication unit COM, a storage unit MEM, and a display unit DIS. The stereo camera SC has a control unit (CPU, arithmetic processing unit, processor, not shown) and a communication unit COM, but further includes an input unit (not shown), an output unit (not shown), and a storage unit (not shown). It may have a display unit (not shown) and a display unit (not shown).

図16の監視システムは、図12のものと言及しない限り同じものである。大きく異なるのは、図16では、音声情報をさらに活用して、飛翔体即ちドローンの監視に適した構成にできることである。以下、その構成を詳細に説明する。 The monitoring system of FIG. 16 is the same as that of FIG. 12 unless otherwise noted. The major difference is that in FIG. 16, the voice information can be further utilized to form a configuration suitable for monitoring a flying object, that is, a drone. The configuration will be described in detail below.

サーバSV3の記憶部MEMは、音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースSFIと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースIFIと、飛翔体情報、および、該飛翔体情報に関連付けられたリスク情報を含む飛翔体リスクデータベースFRIと、リスク情報に関連付けられた飛翔体対応情報を含むリスク対応データベースRCDB、をさらに格納する。 The storage unit MEM of the server SV3 stores the audio data, the audio projectile database SFI including the projectile information associated with the audio data, the image-related data, and the projectile information associated with the image-related data. Image Flying object database IFI including, flying object information, and flying object risk database FRI including flying object information and risk information associated with the flying object information, and risk response database RCDB containing flying object correspondence information associated with the risk information, To store more.

また、サーバSV3の制御部CONの取得部ACQは、音声を取得する音声取得部と、ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)とを含む。制御部CONは、解析部ANAを含む。解析部ANAじは、取得された音声を解析し、音声解析データを生成する音声解析部と、取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、を含む。制御部CONは、音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高い音声データまたは画像関連データに関連付けられた飛翔体情報を求める飛翔体判定部FODと、求められた飛翔体情報に基づき、前記飛翔体リスクデータベースを参照して、リスク情報を求めるリスク情報特定部RIDと、をさらに含む。制御部CONは、求められたリスク情報に基づき、リスク対応データベースを参照して、飛翔体対応情報を求める飛翔体対応決定部FCDを、さらに有する、 Further, the acquisition unit ACQ of the control unit CON of the server SV3 includes an audio acquisition unit that acquires audio and an image acquisition unit (or an image pickup unit that captures an image) that acquires a stereo image. The control unit CON includes the analysis unit ANA. The analysis unit ANA includes a voice analysis unit that analyzes the acquired voice and generates voice analysis data, and an image analysis unit that analyzes the acquired stereo image and generates image analysis data. The control unit CON compares the voice data included in the voice flying object database with the generated voice analysis data, and further compares the image data included in the image flying object database with the generated image analysis data. However, based on these comparison results, the flying object determination unit FOD that obtains the flying object information associated with the voice data or the image-related data having the highest degree of matching, and the flying object risk database based on the obtained flying object information. Further includes a risk information identification unit RID for requesting risk information, and the like. The control unit CON further has a projectile response determination unit FCD that seeks projectile response information by referring to the risk response database based on the requested risk information.

図17は、本システムで実行される処理の一例を示すフローチャートである。説明の便宜上、サーバでの処理の形式で記載をするが、これらの処理の一部は、ステレオカメラや図示しない他の端末などで実行してもよい。 FIG. 17 is a flowchart showing an example of processing executed by this system. For convenience of explanation, the description is given in the form of processing on the server, but some of these processing may be executed by a stereo camera or another terminal (not shown).

図に示すように、ステップD11では、音声飛翔体データベースと画像飛翔体データベースとを格納する。ステップD12では、音声情報と画像情報とを取得する。さらに、ステップD13にて、取得した音声情報を音響解析し、音声解析データを生成する。また、取得されたステレオ画像を解析し、画像解析データを生成する。次に、ステップD14にて、各データベースとのマッチングで所定の閾値を超えるもの(所定の合致度以上のもの、或いは最も合致度の高いもの)を該当ドローン機種であると特定する。さらに、ステップD15では,音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高い音声データまたは画像関連データに関連付けられた飛翔体情報を求める。 As shown in the figure, in step D11, the audio projectile database and the image projectile database are stored. In step D12, audio information and image information are acquired. Further, in step D13, the acquired voice information is acoustically analyzed to generate voice analysis data. In addition, the acquired stereo image is analyzed to generate image analysis data. Next, in step D14, a drone model that exceeds a predetermined threshold value in matching with each database (one having a predetermined degree of matching or higher, or one having the highest degree of matching) is specified as the corresponding drone model. Further, in step D15, the audio data included in the audio projectile database and the generated audio analysis data are compared, and further, the image data included in the image projectile database and the generated image analysis data are compared. The comparison is performed, and based on these comparison results, the flying object information associated with the audio data or the image-related data having the highest degree of matching is obtained.

ステップD15では、求められた飛翔体情報(特定したドローン機種)に基づき、飛翔体リスクデータベースを参照して、リスク情報を求め、それに基づき、対応を決定する。この例では、リスク情報に基づき、ステップD16、D17,D18の3種類の対応へと処理が分岐する。比較的に、低いリスクである場合は、ステップD16に進み、飛翔体侵入(ドローン侵入)を管理者などに警告する。リスクが中程度である場合は、ステップD17に進み、飛翔体(ドローン)を追跡する追跡ドローンで追跡し、飛翔体が帰還する場所と特定したり、不審ドローンを操作するものなどの顔を撮影したりする。リスクが高い場合は、ステップD18に進み、ドローンを捕獲(落下でもよい)する(水、網、風、ドローンなどの物理的手段、または、無線妨害、無線制御乗っ取りなどの無線手段など)。 In step D15, based on the obtained flying object information (specified drone model), the flying object risk database is referred to, the risk information is obtained, and the response is determined based on the risk information. In this example, the process branches to three types of correspondences, steps D16, D17, and D18, based on the risk information. If the risk is relatively low, the process proceeds to step D16 to warn the administrator or the like of the invasion of the flying object (invasion of the drone). If the risk is moderate, proceed to step D17, track the projectile (drone), track it with a tracking drone, identify where the projectile will return, or photograph the face of someone operating a suspicious drone. To do. If the risk is high, proceed to step D18 to capture (may fall) the drone (physical means such as water, nets, wind, drone, or radio means such as radio interference, radio control hijacking, etc.).

ステップD15で参照される、飛翔体リスクデータベースは、様々な態様で実現し得るが、幾つか例示する。
<モデル番号と重量情報>
飛翔体情報 関連付け リスク情報
モデル番号 関連付け 重量
MD001 関連付け 150g(リスク小さい)
KX999 関連付け 1kg(リスク中くらい)
YZZ707 関連付け 5kg(リスク大きい)
<飛翔能力と、攻撃能力、最高速度、または航行能力>
飛翔体情報 関連付け リスク情報
飛翔能力 関連付け 攻撃能力、最高速度、または航行能力
回転翼3個 関連付け とても小さい(リスクとても小さい)
回転翼4個 関連付け 小さい(リスク小さい)
回転翼6個 関連付け 中くらい(リスク中くらい)
回転翼8個 関連付け 高い(リスク高い)
無線制御 関連付け 中くらい(リスク中くらい)
自律航行 関連付け 高い(リスク高い)
<撮影能力と盗撮能力>
飛翔体情報 関連付け リスク情報
撮影能力 関連付け 盗撮能力
カメラ30万画素 関連付け 小さい(リスク小さい)
カメラ300万画素 関連付け 中くらい(リスク中くらい)
カメラ1200万画素 関連付け 高い(リスク高い)
The projectile risk database referenced in step D15 can be implemented in various embodiments, but some will be exemplified.
<Model number and weight information>
Flying object information association risk information model number association weight MD001 association 150g (risk small)
KX999 association 1kg (medium risk)
YZZ707 association 5kg (high risk)
<Flight ability and attack ability, maximum speed, or navigation ability>
Flying object information Association risk information Flying ability association Attack ability, maximum speed, or navigation ability 3 rotor blades Association Very small (risk very small)
4 rotor blades associated small (small risk)
6 rotor blades associated medium (medium risk)
8 rotor blades associated high (high risk)
Wireless control association Medium (medium risk)
Autonomous navigation association High (high risk)
<Shooting ability and voyeur ability>
Flying object information Association Risk information Shooting ability Association Voyeur ability Camera 300,000 pixels Association Small (risk small)
Camera 3 million pixels Association Medium (medium risk)
Camera 12 million pixels High association (high risk)

モデル番号や名称は、飛翔能力、撮影能力、重量情報などに変換可能であり、即ち、モデル番号や名称の特定によって、上記テーブルを参照して、リスク情報を得ることが可能である。 The model number and name can be converted into flight ability, shooting ability, weight information and the like, that is, by specifying the model number and name, it is possible to obtain risk information by referring to the above table.

ステップD15で参照される、リスク対応データベースは、様々な態様で実現し得るが、幾つか例示する。
<リスク情報と飛翔体対応情報>
リスク情報 関連付け 飛翔体対応情報
リスク小さい 関連付け ドローン侵入を管理者に警告する
リスク中 関連付け ドローンを追跡ドローンやレータなどで追跡する
リスク大きい 関連付け ドローンを捕獲、落下、制御乗っ取り、無線制御を無力化などする
The risk response database referenced in step D15 can be implemented in various ways, but some will be exemplified.
<Risk information and projectile response information>
Risk Information Association Flyer Response Information Risk Small Association Warn Administrators of Drone Intrusion Risk Medium Association Track Drone Tracked with Drone, Rator, etc. Risk Large Association Capture, Drop, Takeover Control, Disable Radio Control, etc.

図18は、本システムの監視下にある敷地に接近する対象を不審物として検知するシーンを説明する模式図である。図に示すように、シーンSCN31は、ドローンDR3が監視面に接触している。敷地の建物にはステレオカメラSC3が設置され、実質的監視面MP3を画像内に映している。本システムでは、音声と画像によりドローンを特定しているため、特定したドローンのリスクにより、その対応を決定する。例えば、機種xxx01、機能:100万画素での撮影という低スペックの機種である場合は、リスクが低いと判定し、対応策AP1のように、警告のみを行う。もちろん、不審なドローンの監視(撮影、音声取得)は継続する。また、機種:zzz03、機能:1600万画素での撮影、GPSでの自律飛行機能の場合は、リスクが中程度と判定し、対応策AP2のように、追跡ドローンを飛ばし、不審なドローンを追跡するような追跡対応する。また、機種:yyy02、機能:200万画素での撮影、1kgまでの荷物放出機能の場合は、リスクが高いと判定し、捕獲対応を行う。リスク判定や対応決定は、AIなどを使用して、機能に基づき判断してもよいが、本システムが具える各データベースを適宜使用することが好適である。 FIG. 18 is a schematic diagram illustrating a scene in which an object approaching a site under the supervision of this system is detected as a suspicious object. As shown in the figure, in the scene SCN31, the drone DR3 is in contact with the monitoring surface. A stereo camera SC3 is installed in the building on the site, and the actual monitoring surface MP3 is projected in the image. In this system, the drone is specified by voice and image, so the response is determined by the risk of the specified drone. For example, in the case of a model with low specifications such as model xxx01 and function: shooting with 1 million pixels, it is determined that the risk is low, and only a warning is given as in the countermeasure AP1. Of course, suspicious drone monitoring (shooting, audio acquisition) will continue. Also, in the case of model: zzz03, function: shooting with 16 million pixels, autonomous flight function with GPS, it is judged that the risk is medium, and like the countermeasure AP2, the tracking drone is skipped and the suspicious drone is tracked. Respond to tracking like that. In addition, in the case of model: yyy02, function: shooting with 2 million pixels, and luggage release function up to 1 kg, it is judged that the risk is high and capture is taken. The risk judgment and the response decision may be made based on the function by using AI or the like, but it is preferable to appropriately use each database provided by this system.

図19は、本システムで実行される処理の一例を示すフローチャートである。図19の処理であるステップD31−D38は、指摘が無い限り図17の処理とほぼ同じである。 FIG. 19 is a flowchart showing an example of processing executed by this system. Steps D31-D38, which are the processes of FIG. 19, are almost the same as the processes of FIG. 17 unless otherwise indicated.

図に示すように、ステップD34−1が新たにに加わる処理である。ステップD34−1では、求めた飛翔体の機種のリスク情報に基づき、監視面(監視線でもよい)を変更(設定する)。これによって、ドローン機種のリスク即ち性能に応じた、監視領域を設定可能となる。即ち、危険なドローンに対しては、より強固な監視体制をとり、玩具程度のドローン機種に対しては監視体制を緩めるなどのフレキシブルな監視体制を取ることが可能である。次の図で、ステップD34−1の処理をより詳細に説明する。 As shown in the figure, step D34-1 is a newly added process. In step D34-1, the monitoring surface (which may be a monitoring line) is changed (set) based on the obtained risk information of the flying object model. This makes it possible to set a monitoring area according to the risk, that is, the performance of the drone model. That is, it is possible to take a stronger monitoring system for dangerous drones and a flexible monitoring system such as loosening the monitoring system for toy-like drone models. The process of step D34-1 will be described in more detail in the following figure.

図20は、図19のステップD34−1をより詳細なステップに分けたフローチャートである。図に示すように、ステップD34−11では、求められた飛翔体情報に基づき、飛翔体監視領域データベースを参照して、監視領域情報(監視線や監視面など)を求める。そして、ステップD34−12では、取得された構造物情報に基づき、構造物補正データベースを参照して、監視領域補正情報を求め、求められた監視領域補正情報に基づき、監視領域情報(例えば、監視線や監視面)を補正する。本処理によれば、監視対象として特定した飛翔体のリスク情報に応じた、監視領域の設定が可能となる。本構成の最も大きな利点は、子どもの玩具のような低性能なドローンが十分遠くを通過する場合の検知による余計な警報発令を抑制可能なことである。もちろん、逆に、高性能なドローンに対しては、監視領域を拡大して十分な監視体制を取ることが可能である。なお、本システムは、監視対象に対して、個別に監視領域を設定することが可能である。 FIG. 20 is a flowchart in which step D34-1 of FIG. 19 is divided into more detailed steps. As shown in the figure, in step D34-11, based on the obtained flying object information, the monitoring area information (monitoring line, monitoring surface, etc.) is obtained by referring to the flying object monitoring area database. Then, in step D34-12, the monitoring area correction information is obtained with reference to the structure correction database based on the acquired structure information, and the monitoring area information (for example, monitoring) is obtained based on the obtained monitoring area correction information. Correct the line and monitoring surface). According to this process, it is possible to set the monitoring area according to the risk information of the flying object specified as the monitoring target. The greatest advantage of this configuration is that it is possible to suppress unnecessary warning issuance due to detection when a low-performance drone such as a child's toy passes far enough. Of course, on the contrary, for high-performance drones, it is possible to expand the monitoring area and take a sufficient monitoring system. In this system, it is possible to set a monitoring area individually for the monitoring target.

上記のような処理のためには、本システムを以下のように構成させればよい。 For the above processing, this system may be configured as follows.

監視システムは、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、構造物情報(ビルや施設、家屋などの構造や窓・開口部などの情報、BIM/CIM情報)の情報、および、該構造物情報による監視領域補正情報を含む構造物補正データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)と、
構造物情報を取得する構造物情報取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報(監視線や監視面など)を求めるリスク情報特定部と、
取得された構造物情報に基づき、前記構造物補正データベースを参照して、監視領域補正情報を求め、求められた監視領域補正情報に基づき、前記監視領域情報を補正する監視領域補正部と、
を有する。
The monitoring system
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. Flying object monitoring area database including information and monitoring area information associated with the flying object information, and structure information (information on structures such as buildings, facilities, houses, windows, openings, etc., BIM / CIM information) A storage unit for storing the information of the above and a structure correction database including monitoring area correction information based on the structure information.
A voice acquisition unit that acquires voice, and
An image acquisition unit (or an image pickup unit that captures images) that acquires a stereo image,
The structure information acquisition unit that acquires structure information,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result, the projectile determination unit that obtains the projectile information associated with the one with the highest degree of matching, and the projectile determination unit,
Based on the obtained flying object information, the risk information identification unit that obtains the monitoring area information (monitoring line, monitoring surface, etc.) by referring to the flying object monitoring area database, and
A monitoring area correction unit that obtains monitoring area correction information based on the acquired structure information with reference to the structure correction database and corrects the monitoring area information based on the obtained monitoring area correction information.
Have.

或いは、本システムを以下のように構成させてもよい。
監視システムであって、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部(或いは、撮像する撮像部)と、
構造物情報または地形情報を含むBIM/CIM情報を取得するBIM/CIM情報取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報、および、取得したBIM/CIM情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報(監視線や監視面など)を求めるリスク情報特定部と、
を有する。
Alternatively, the system may be configured as follows.
It ’s a monitoring system,
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object monitoring area database including monitoring area information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit (or an image pickup unit that captures images) that acquires a stereo image,
A BIM / CIM information acquisition unit that acquires BIM / CIM information including structure information or topographical information,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result, the projectile determination unit that obtains the projectile information associated with the one with the highest degree of matching, and the projectile determination unit,
Based on the obtained flying object information and the acquired BIM / CIM information, the risk information identification unit for obtaining monitoring area information (monitoring line, monitoring surface, etc.) by referring to the flying object monitoring area database, and
Have.

図21は、本システムの監視下にある建物に接近する飛翔体に対する監視面の設定状況を説明する模式図である。図に示すように、ある敷地に建物があるものとする。
まず、シーンSCN31のように、監視面V3(これが標準的な監視面である)が設定されているものとする。このとき、監視面に接近するドローンD31がある。本システムは、接近するドローンの音と画像を取得し、ドローン機種を特定する。
FIG. 21 is a schematic diagram illustrating a setting status of a monitoring surface for a flying object approaching a building under the monitoring of this system. As shown in the figure, it is assumed that there is a building on a certain site.
First, it is assumed that the monitoring surface V3 (this is a standard monitoring surface) is set as in the scene SCN31. At this time, there is a drone D31 that approaches the monitoring surface. This system acquires the sound and image of an approaching drone and identifies the drone model.

本システムは、特定したドローン(飛翔体)の機種に応じたリスク情報または機種性能に基づき、監視面の変更、補正を行う。或いは、機種別に予め監視面(監視領域)を設定した情報を利用してもよい。シーンSCN33のように、高性能なドローンDR33が接近する場合は、そのドローンが接近する側の監視面を広く設定し、監視面V33のようにすることが好適である。或いは、シーンSCN32のように、性能が低く危険が少ないドローンDR32が接近する場合は、そのドローンが接近する場合は、その側の監視面を狭く設定したり、全体の監視面を狭く設定したりして、監視面V32のようにすることが好適である。 This system changes and corrects the monitoring surface based on the risk information or model performance according to the specified drone (flying object) model. Alternatively, the information in which the monitoring surface (monitoring area) is set in advance for each model may be used. When a high-performance drone DR33 approaches, as in the scene SCN33, it is preferable to set a wide monitoring surface on the side to which the drone approaches, and to make it like the monitoring surface V33. Alternatively, when a drone DR32 with low performance and low risk approaches, as in the scene SCN32, if the drone approaches, the monitoring surface on that side may be set narrower, or the overall monitoring surface may be set narrower. Therefore, it is preferable to make it like the monitoring surface V32.

図22は、本システムで実行される処理の一例を示すフローチャートである。図に示すように、ステップD41にて、サーバの制御部に設けたBIM/CIM情報取得部が、構造物情報または地形情報を含むBIM/CIM情報を取得する。
次に、ステップD42にて、リスク情報特定部が、取得したBIM/CIM情報に基づき、監視領域情報を変更または補正する。BIM/CIM情報は、BIM/CIM情報サーバBIM3に格納されたBIM/CIM情報BCIをネットワーク経由で取得してもよいし、記憶部に格納しているBIM/CIM情報BCIを取得してもよい。BIM/CIM情報とは、構造物である建物のCAD情報(窓などの開口部情報などを含む)、河川、山などの地形情報、ダムや橋などの土木構造物の情報などである。
FIG. 22 is a flowchart showing an example of processing executed by this system. As shown in the figure, in step D41, the BIM / CIM information acquisition unit provided in the control unit of the server acquires the BIM / CIM information including the structure information or the topographical information.
Next, in step D42, the risk information specifying unit changes or corrects the monitoring area information based on the acquired BIM / CIM information. As the BIM / CIM information, the BIM / CIM information BCI stored in the BIM / CIM information server BIM3 may be acquired via the network, or the BIM / CIM information BCI stored in the storage unit may be acquired. .. BIM / CIM information includes CAD information (including opening information such as windows) of buildings that are structures, topographical information such as rivers and mountains, and information on civil engineering structures such as dams and bridges.

図23は、本システムの監視下にある建物に接近する飛翔体に対する監視面の設定状況を説明する模式図である。図のシーンSCN41に示すように、建物CONS41の窓のない側の監視面は、監視面V41のように、BIM/CIM情報により、窓のない側の建物(敷地でもよい)から 所定の距離だけ離れた位置に監視面を設定する。これは、窓のない側は、盗撮など外部から観察される恐れがないため、監視を厳しくする必要性が乏しいからである。他方、シーンSCN41に示すように、建物CONS42の窓WINDのある側の監視面は、監視面V42のように、広く遠くまで監視できるように、監視面を遠くに設定し、監視領域を広げる。このように、BIM/CIM情報に応じて、監視領域を補正したり、設定したりすることが可能である、また、BIM/CIM情報と、ドローン機種の情報(リスク情報)とを組み合わせて、より精密に監視領域を設定することも可能である。 FIG. 23 is a schematic diagram illustrating the setting status of the monitoring surface for a flying object approaching a building under the monitoring of this system. As shown in the scene SCN41 in the figure, the monitoring surface on the windowless side of the building CONS41, like the monitoring surface V41, is only a predetermined distance from the building (may be the site) on the windowless side based on BIM / CIM information. Set the monitoring surface at a remote location. This is because the side without a window is not likely to be observed from the outside such as voyeurism, so there is little need for strict monitoring. On the other hand, as shown in the scene SCN41, the monitoring surface on the side of the building CONS42 with the window WIND is set far away so that the monitoring surface can be monitored widely and far, like the monitoring surface V42, to widen the monitoring area. In this way, it is possible to correct or set the monitoring area according to the BIM / CIM information, and by combining the BIM / CIM information and the drone model information (risk information), It is also possible to set the monitoring area more precisely.

図24は、浄水場を監視する場合の監視線の設定状況を説明する模式図である。図に示すように、シーンSCN51では、河川RVを考慮せずに、浄水場CLWの周囲に監視線VF51が設定されている。この場合には、ドローンDR51が河川RVの上流に接近した場合には、監視対象領域ではないため、検知不可である。しかし、浄水場の場合は、河川から取水しているため、上流の監視があった方がよい。そこで、上流監視のためにBIM/CIM情報を利用したのがシーンSCN52である。 FIG. 24 is a schematic diagram illustrating a setting status of a monitoring line when monitoring a water purification plant. As shown in the figure, in the scene SCN51, the monitoring line VF51 is set around the water purification plant CLW without considering the river RV. In this case, when the drone DR51 approaches the upstream of the river RV, it cannot be detected because it is not a monitoring target area. However, in the case of a water purification plant, water is taken from a river, so it is better to monitor upstream. Therefore, it is the scene SCN52 that uses the BIM / CIM information for upstream monitoring.

シーンSCN52に示すように、BIM/CIM情報に基づき、取水口から川の上流方面に監視線VF1(監視面でもよい)を広く設定(変更、補正でもよい)する。このようにすれば、河川VRの上流の上空に接近するドローンDR52を検知することが可能となる。 As shown in the scene SCN52, the monitoring line VF1 (which may be the monitoring surface) is widely set (may be changed or corrected) from the intake to the upstream of the river based on the BIM / CIM information. By doing so, it becomes possible to detect the drone DR52 approaching the sky upstream of the river VR.

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部、各ステップなどに含まれる処理や機能などは論理的に矛盾しないように再配置可能であり、複数の手段/部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。或いは、本発明による装置、方法、プログラムなどの一部の構成要素、機能、処理、ステップなどを遠隔地のサーバなどに配置することも可能であることに注意されたい。また、本発明をリアルタイムの監視装置として説明してきたが、撮影済みの画像を入力として、不審な対象が撮影した時間帯や瞬間を切り出す、編集装置や編集システムとしても使用可能である。 Although the present invention has been described with reference to the drawings and examples, it should be noted that those skilled in the art can easily make various modifications and modifications based on the present disclosure. Therefore, it should be noted that these modifications and modifications are included in the scope of the present invention. For example, the processes and functions included in each part and each step can be rearranged so as not to be logically inconsistent, and multiple means / parts and steps can be combined or divided into one. It is possible. Alternatively, it should be noted that some components, functions, processes, steps, etc. of the devices, methods, programs, etc. according to the present invention can be arranged on a remote server or the like. Further, although the present invention has been described as a real-time monitoring device, it can also be used as an editing device or an editing system that cuts out a time zone or a moment taken by a suspicious object by inputting a captured image.

A,B,C,D 境界点
ACQ 取得部
BDY 境界線
CAM 撮像部
COM 通信部
CON 制御部
CONS2 建物
DE 距離算出部
DE 距離測定部
DIM 方向測定部
DIS 表示部
DR1 ドローン
DR21 ドローン
MAP 地図
MEM 記憶部
ML 監視線
ML1 監視線
ML2 監視線
ML3 監視線
ML3 監視線
ML4,ML5 監視線
MLS 監視線設定部
MON 監視部
MP 実質的監視面
MP21 監視面
MP22 監視面
MP23 監視面
MP24 監視面
MP25 監視面
MPS 監視面設定部
MS1 監視システム
MS2 監視システム
NET ネットワーク
PF1 物理フェンス
POM 位置測定部
RES 敷地情報サーバ
RES1 敷地情報サーバ
SC ステレオカメラ
SC1 ステレオカメラ
SC2 ステレオカメラ
SCN21 シーン
SCN22 シーン
SCN23 シーン
SI ブロック分割画像
SI10 ステレオ画像
SI11 ステレオ画像
SI12 ステレオ画像
SI21 ステレオ画像
SI2221 ステレオ画像
SS 敷地
SS10 敷地
SS20 敷地
SV1 サーバ
SV2 サーバ
UIP 不審者
WOT 警報出力部
A, B, C, D Boundary point ACQ acquisition unit BDY Boundary line CAM Imaging unit COM Communication unit CON Control unit CONS2 Building DE Distance calculation unit DE Distance measurement unit DIM Direction measurement unit DIS display unit DR1 Drone DR21 Drone MAP Map MEM storage unit ML monitoring line ML1 monitoring line ML2 monitoring line ML3 monitoring line ML3 monitoring line ML4, ML5 monitoring line MLS monitoring line setting unit MON monitoring unit MP Substantial monitoring surface MP21 monitoring surface MP22 monitoring surface MP23 monitoring surface MP24 monitoring surface MP25 monitoring surface MPS monitoring Surface setting unit MS1 Monitoring system MS2 Monitoring system NET network PF1 Physical fence POM Position measurement unit RES Site information server RES1 Site information server SC Stereo camera SC1 Stereo camera SC2 Stereo camera SCN21 Scene SCN22 Scene SCN23 Scene SI Block split image SI10 Stereo image SI11 Stereo Image SI12 Stereo image SI21 Stereo image SI2221 Stereo image SS Site SS10 Site SS20 Site SV1 Server SV2 Server UIP Suspicious person WOT Alarm output unit

Claims (10)

監視システムであって、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられたリスク情報を含む飛翔体リスクデータベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像関連データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高い音声データまたは画像関連データに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体リスクデータベースを参照して、リスク情報を求めるリスク情報特定部と、
を有する監視システム。
It ’s a monitoring system,
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object risk database including risk information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit that acquires stereoscopic images, and
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image- related data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result of, the flying object determination unit that obtains the flying object information associated with the voice data or the image-related data having the highest degree of matching, and
Based on the requested flying object information, the risk information identification unit for which risk information is requested by referring to the flying object risk database, and
Monitoring system with.
請求項1に記載の監視システムにおいて、
前記記憶部が、
リスク情報に関連付けられた飛翔体対応情報を含むリスク対応データベースをさらに格納し、
前記監視システムは、
求められたリスク情報に基づき、リスク対応データベースを参照して、飛翔体対応情報を求める飛翔体対応決定部を、さらに有する、
ことを特徴とする監視システム。
In the monitoring system according to claim 1,
The storage unit
Further stores the risk response database containing the projectile response information associated with the risk information,
The monitoring system is
Based on the requested risk information, it also has a projectile response decision unit that seeks projectile response information by referring to the risk response database.
A monitoring system characterized by that.
監視システムであって、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像関連データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報を求めるリスク情報特定部と、
を有する監視システム。
It ’s a monitoring system,
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object monitoring area database including monitoring area information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit that acquires stereoscopic images, and
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image- related data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result of, the flying object determination unit that obtains the flying object information associated with the one with the highest degree of matching, and the flying object determination unit,
Based on the obtained flying object information, the risk information identification unit for which the monitoring area information is obtained by referring to the flying object monitoring area database, and
Monitoring system with.
請求項3に記載の監視システムにおいて、
前記記憶部が、
リスク情報に関連付けられた飛翔体対応情報を含むリスク対応データベースをさらに格納し、
前記監視システムは、
求められたリスク情報に基づき、リスク対応データベースを参照して、飛翔体対応情報を求める飛翔体対応決定部を、さらに有する、
ことを特徴とする監視システム。
In the monitoring system according to claim 3,
The storage unit
Further stores the risk response database containing the projectile response information associated with the risk information,
The monitoring system is
Based on the requested risk information, it also has a projectile response decision unit that seeks projectile response information by referring to the risk response database.
A monitoring system characterized by that.
請求項3または4に記載の監視システムにおいて、
構造物情報または地形情報を含むBIM/CIM情報を取得するBIM/CIM情報取得部をさらに有し、
前記リスク情報特定部が、
取得したBIM/CIM情報に基づき、監視領域情報を変更または補正する、
ことを特徴とする監視システム。
In the monitoring system according to claim 3 or 4.
It also has a BIM / CIM information acquisition unit that acquires BIM / CIM information including structure information or topographical information.
The risk information identification department
Change or correct the monitoring area information based on the acquired BIM / CIM information.
A monitoring system characterized by that.
監視システムであって、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部と、
構造物情報または地形情報を含むBIM/CIM情報を取得するBIM/CIM情報取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像関連データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報、および、取得したBIM/CIM情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報を求めるリスク情報特定部と、
を有する監視システム。
It ’s a monitoring system,
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. A storage unit for storing information and a flying object monitoring area database including monitoring area information associated with the flying object information.
A voice acquisition unit that acquires voice, and
An image acquisition unit that acquires stereoscopic images, and
A BIM / CIM information acquisition unit that acquires BIM / CIM information including structure information or topographical information,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image- related data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result of, the flying object determination unit that obtains the flying object information associated with the one with the highest degree of matching, and the flying object determination unit,
Based on the obtained flying object information and the acquired BIM / CIM information, the risk information identification unit for which the monitoring area information is obtained by referring to the flying object monitoring area database, and
Monitoring system with.
監視システムであって、
音声データ、および、該音声データに関連付けられた飛翔体情報を含む音声飛翔体データベースと、画像関連データ、および、該画像関連データに関連付けられた飛翔体情報を含む画像飛翔体データベースと、飛翔体情報、および、該飛翔体情報に関連付けられた監視領域情報を含む飛翔体監視領域データベースと、構造物情報、および、該構造物情報による監視領域補正情報を含む構造物補正データベースと、を格納する記憶部と、
音声を取得する音声取得部と、
ステレオ画像を取得する画像取得部と、
構造物情報を取得する構造物情報取得部と、
取得された音声を解析し、音声解析データを生成する音声解析部と、
取得されたステレオ画像を解析し、画像解析データを生成する画像解析部と、
前記音声飛翔体データベースに含まれる音声データと、生成された音声解析データとを比較し、さらに、前記画像飛翔体データベースに含まれる画像関連データと、生成された画像解析データとを比較し、これらの比較結果に基づき、最も合致度が高いものに関連付けられた飛翔体情報を求める飛翔体判定部と、
求められた飛翔体情報に基づき、前記飛翔体監視領域データベースを参照して、監視領域情報を求めるリスク情報特定部と、
取得された構造物情報に基づき、前記構造物補正データベースを参照して、監視領域補正情報を求め、求められた監視領域補正情報に基づき、前記監視領域情報を補正する監視領域補正部と、
を有する監視システム。
It ’s a monitoring system,
An audio projectile database containing audio data and projectile information associated with the audio data, an image projectile database containing image-related data, and projectile information associated with the image-related data, and a projectile. Stores a flying object monitoring area database containing information and monitoring area information associated with the flying object information , and a structure correction database including structure information and monitoring area correction information based on the structure information. Memory and
A voice acquisition unit that acquires voice, and
An image acquisition unit that acquires stereoscopic images, and
The structure information acquisition unit that acquires structure information,
A voice analysis unit that analyzes the acquired voice and generates voice analysis data,
An image analysis unit that analyzes the acquired stereo image and generates image analysis data,
The audio data included in the audio projectile database is compared with the generated audio analysis data, and the image- related data included in the image projectile database is compared with the generated image analysis data. Based on the comparison result of, the flying object determination unit that obtains the flying object information associated with the one with the highest degree of matching, and the flying object determination unit,
Based on the obtained flying object information, the risk information identification unit for which the monitoring area information is obtained by referring to the flying object monitoring area database, and
A monitoring area correction unit that obtains monitoring area correction information based on the acquired structure information with reference to the structure correction database and corrects the monitoring area information based on the obtained monitoring area correction information.
Monitoring system with.
請求項7に記載の監視システムにおいて、
撮像部または前記監視システムの位置情報を取得するGPSユニット、をさらに有し、
前記構造物情報取得部が、
位置情報と構造物情報とが関連付けられた構造物情報データベースを参照して、取得された位置情報に基づき、撮像部または前記監視システムが位置する構造物情報を取得する、
ことを特徴とする監視システム。
In the monitoring system according to claim 7,
It further has a GPS unit that acquires the position information of the image pickup unit or the monitoring system.
The structure information acquisition unit
With reference to the structure information database in which the position information and the structure information are associated with each other, the structure information in which the imaging unit or the monitoring system is located is acquired based on the acquired position information.
A monitoring system characterized by that.
1つまたは複数の演算処理装置を請求項1〜8に記載の監視システムとして機能させる監視プログラム。 A monitoring program that causes one or more arithmetic processing units to function as the monitoring system according to claim 1. 請求項9に記載の監視プログラムを格納したコンピュータ可読な記憶媒体。 A computer-readable storage medium containing the monitoring program according to claim 9.
JP2017074856A 2016-06-08 2017-04-04 Surveillance systems, surveillance programs, and storage media Active JP6967868B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016114730 2016-06-08
JP2016114730 2016-06-08

Publications (2)

Publication Number Publication Date
JP2017225108A JP2017225108A (en) 2017-12-21
JP6967868B2 true JP6967868B2 (en) 2021-11-17

Family

ID=60686467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074856A Active JP6967868B2 (en) 2016-06-08 2017-04-04 Surveillance systems, surveillance programs, and storage media

Country Status (1)

Country Link
JP (1) JP6967868B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112019006072T5 (en) 2018-12-05 2021-09-02 Sony Group Corporation Information processing apparatus, information processing system, information processing method and program
JP6928023B2 (en) * 2019-03-19 2021-09-01 ソフトバンク株式会社 Management equipment, systems, programs and management methods
WO2022190701A1 (en) * 2021-03-08 2022-09-15 パナソニックi-PROセンシングソリューションズ株式会社 Suspicious person alarm notification system, suspicious person alarm notification method, and suspicious person alarm notification program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006168421A (en) * 2004-12-13 2006-06-29 Toshiba Corp Flying object monitoring device
JP5560397B2 (en) * 2011-12-22 2014-07-23 株式会社ウェルソック Autonomous crime prevention alert system and autonomous crime prevention alert method

Also Published As

Publication number Publication date
JP2017225108A (en) 2017-12-21

Similar Documents

Publication Publication Date Title
CN108615321B (en) Security pre-warning system and method based on radar detecting and video image behavioural analysis
CN109686109B (en) Parking lot safety monitoring management system and method based on artificial intelligence
US10498955B2 (en) Commercial drone detection
CN108802758B (en) Intelligent security monitoring device, method and system based on laser radar
CN108983806B (en) Method and system for generating area detection and air route planning data and aircraft
US8681223B2 (en) Video motion detection, analysis and threat detection device and method
KR101948569B1 (en) Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same
CN111724558B (en) Monitoring method, monitoring device and intrusion alarm system
CN105759834A (en) System and method of actively capturing low altitude small unmanned aerial vehicle
JP6967868B2 (en) Surveillance systems, surveillance programs, and storage media
US11210529B2 (en) Automated surveillance system and method therefor
WO2022078182A1 (en) Throwing position acquisition method and apparatus, computer device and storage medium
CN104966062B (en) Video monitoring method and device
CN111163285A (en) High-altitude falling object monitoring method and system and computer readable storage medium
CN108259827B (en) Method, device, AR equipment and system for realizing security
KR102335994B1 (en) Integrated control apparatus of surveillance devices for drone surveillance
WO2020095379A1 (en) Image processing device, image processing method, and computer readable medium
KR20150003893U (en) An Automated System for Military Surveillance and Security utilizing RADAR and DRONE
Fawzi et al. Embedded real-time video surveillance system based on multi-sensor and visual tracking
CN110807345A (en) Building evacuation method and building evacuation system
CN114677640A (en) Intelligent construction site safety monitoring system and method based on machine vision
CN110164071A (en) A kind of security system
CN112802100A (en) Intrusion detection method, device, equipment and computer readable storage medium
JP7031817B2 (en) Surveillance systems, surveillance programs, and storage media
US11854266B2 (en) Automated surveillance system and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211026

R150 Certificate of patent or registration of utility model

Ref document number: 6967868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D01