JP2018107587A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2018107587A
JP2018107587A JP2016251098A JP2016251098A JP2018107587A JP 2018107587 A JP2018107587 A JP 2018107587A JP 2016251098 A JP2016251098 A JP 2016251098A JP 2016251098 A JP2016251098 A JP 2016251098A JP 2018107587 A JP2018107587 A JP 2018107587A
Authority
JP
Japan
Prior art keywords
unit
image
request
imaging device
calculation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016251098A
Other languages
Japanese (ja)
Inventor
木村 亮介
Ryosuke Kimura
亮介 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2016251098A priority Critical patent/JP2018107587A/en
Publication of JP2018107587A publication Critical patent/JP2018107587A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To cope with necessity of managing image processing calculation of images from a plurality of imaging apparatuses by a system, and outputting an optimum image processing result with limited system resources.SOLUTION: A monitoring system comprises: (a) an imaging apparatus including an image transmission unit for transmitting a picked-up image, a request reception unit for receiving a request, a motor control unit for applying the request in an imaging apparatus direction, and a field angle control unit for applying the request to an imaging apparatus field angle; and (b) a server device including an image processing calculation unit for performing calculation using images from the imaging apparatus, a database unit for storing a calculation result of the image processing calculation unit, a system operation support unit for spatially and temporally analyzing the calculation result stored in the database, and a request transmission unit for transmitting the request to the imaging apparatus on the basis of an analysis result of the system operation support unit.SELECTED DRAWING: Figure 1

Description

本開示は監視システムに関する。   The present disclosure relates to a monitoring system.

従来から、大型商業施設、イベント会場、空港、駅、道路といった不特定多数の人が訪れる施設には、事故防止等の目的で、映像監視システムが設置されている。これは、監視対象の人物等をカメラ等の撮像装置で撮影し、その映像を、管理事務所や警備室等の監視センタに伝送し、常駐する監視者がそれを監視し、目的や必要に応じて、注意するものである。   Conventionally, video surveillance systems have been installed in facilities visited by an unspecified number of people such as large commercial facilities, event venues, airports, stations, and roads for the purpose of preventing accidents. This is because a person to be monitored is photographed by an imaging device such as a camera, and the video is transmitted to a monitoring center such as a management office or a security room, and the resident supervisor monitors it, and the purpose and necessity Depending on what you are careful with.

このような背景から、監視者の労力を減らすための様々な機能を備える映像監視システムが普及しつつある。特に、近年では、映像中の特定の事象(イベント)の発生を、画像処理技術を用いてリアルタイムに自動検知する、ビッグデータに蓄積し特定の情報を検索するなど高度な機能を備えた映像監視システムが登場しつつある。ピンポイントの警戒だけではなく、蓄積データを活用したマーケティングや警備人員配置計画にも使われ始めている。   Against this background, video surveillance systems having various functions for reducing the labor of the supervisor are becoming widespread. In particular, in recent years, video surveillance with advanced functions such as automatic detection of real-time occurrences of specific events in video using image processing technology, search for specific information stored in big data, etc. A system is emerging. In addition to pinpoint alerts, it is also beginning to be used for marketing and security staffing plans using stored data.

年々システムは高機能化しているが、画像処理演算もより複雑化の一途をたどり、撮像装置台数規模も大規模化している。そのシステムを支える上で、画像処理演算の最適化は重要な課題となっている。   The system has become more sophisticated year by year, but the image processing operations are becoming more complicated and the number of image pickup devices is also increasing. In supporting such a system, optimization of image processing calculation is an important issue.

特開2015−172850号公報Japanese Patent Laying-Open No. 2015-172850

画像処理技術の発展・精度向上や、撮像装置解像度の飛躍的進化により、複数台の撮像装置からの画像処理演算をシステムで管理し、限られたシステムリソースでも最適な画像処理結果を出力する必要性がでてきた。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
It is necessary to manage the image processing operations from multiple imaging devices by the system and to output the optimal image processing results even with limited system resources due to the development and improvement of image processing technology and the dramatic evolution of imaging device resolution. Sex came out.
Other problems and novel features will become apparent from the description of the specification and the accompanying drawings.

本開示のうち、代表的なものの概要を簡単に説明すれば、下記のとおりである。
すなわち、監視システムは、(a)撮像した画像を送信する画像送信部と、要求を受信する要求受信部と、前記要求を撮像装置方向に適用するためのモーター制御部と、前記要求を撮像装置画角に適用するための画角制御部と、有する撮像装置と、(b)前記撮像装置からの画像を用いて演算を実施する画像処理演算部と、前記画像処理部の演算結果を蓄積するデータベース部と、前記データベースに蓄積される前記演算結果を空間的および時間的に解析するシステム運用支援部と、前記システム運用支援部の解析結果に基づき前記撮像装置に前記要求を送信する要求送信部と、を有するサーバ装置と、を備える。
The outline of a representative one of the present disclosure will be briefly described as follows.
That is, the monitoring system includes: (a) an image transmission unit that transmits a captured image; a request reception unit that receives a request; a motor control unit that applies the request in the direction of the imaging device; An angle-of-view control unit for application to an angle of view; an imaging device having the angle; an image processing calculation unit that performs an operation using an image from the imaging device; and an operation result of the image processing unit is accumulated. A database unit, a system operation support unit that spatially and temporally analyzes the calculation result stored in the database, and a request transmission unit that transmits the request to the imaging device based on the analysis result of the system operation support unit And a server device.

上記監視システムによれば、画像処理を効率的に行うことができる。   According to the monitoring system, image processing can be performed efficiently.

実施例に係る監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system which concerns on an Example. 実施例に係る監視システムの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the monitoring system which concerns on an Example. 実施例に係る監視システムの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the monitoring system which concerns on an Example. 実施例に係る監視システムについて、画像処理によるイベント発生機会を向上するための、最適運用イメージを説明する図である。It is a figure explaining the optimal operation image for improving the event generation opportunity by image processing about the monitoring system which concerns on an Example. 実施例に係る端末装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the terminal device which concerns on an Example. 実施例に係る端末装置の座標対応付け画面を説明するための図である。It is a figure for demonstrating the coordinate matching screen of the terminal device which concerns on an Example. 実施例に係る端末装置のエリアマップ調整部と3D処理部を説明するための図である。It is a figure for demonstrating the area map adjustment part and 3D process part of the terminal device which concern on an Example. 実施例に係る端末装置の測定点と矩形の付与を説明するための座標対応付け画面の図である。It is a figure of the coordinate matching screen for demonstrating provision of the measurement point and rectangle of the terminal device which concerns on an Example. 実施例に係る端末装置の測定点と矩形の平面エリア上の描画について説明するための図であり、図8(A)は立体エリアマップ、図8(B)は平面エリアマップ、図8(C)は床面投影である。It is a figure for demonstrating the drawing on the measurement point and rectangular plane area of the terminal device which concerns on an Example, FIG. 8 (A) is a solid area map, FIG.8 (B) is a plane area map, FIG.8 (C) is FIG. Floor projection. 実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念を説明するための図であり、図9(A)はカメラ画像、図9(B)は床面投影である。It is a figure for demonstrating the geometric calculation concept of the coordinate matching between the camera image of the terminal device which concerns on an Example, and an area map, FIG. 9 (A) is a camera image, FIG.9 (B) is a floor projection. .

実施形態に係る監視システムは、撮像装置から得られる画像処理情報を空間的にとらえることや、それを時間軸で分析することによって、すなわち、監視カメラ等から複数の画像処理で演算した結果を空間・時間の両面で統合的に活用することにより、監視システムにおける画像処理効率の最適化、各カメラの運用の最適化をはかるものである。   The monitoring system according to the embodiment spatially captures the image processing information obtained from the imaging device and analyzes it on the time axis, that is, the result of the calculation performed by the plurality of image processing from the monitoring camera or the like. -By integrating the use of both aspects of time, the image processing efficiency in the surveillance system and the operation of each camera will be optimized.

実施形態に係る監視システムは、撮像装置、端末装置、サーバ装置を備える。端末装置にはソフトウェアアプリケーションが実装され、キーボード・マウス等の外部入力デバイスにより操作され、ディスプレイ等の外部出力デバイス上に表示される。撮像装置は制御命令を受信可能なカメラ等で構成される。端末装置と外部入力デバイス間のやり取りは画面操作検知部が受け持つ。サーバ装置は監視システムを統括管理する。   The monitoring system according to the embodiment includes an imaging device, a terminal device, and a server device. A software application is installed in the terminal device, and is operated by an external input device such as a keyboard / mouse and displayed on an external output device such as a display. The imaging device includes a camera that can receive a control command. The screen operation detection unit handles the exchange between the terminal device and the external input device. The server device manages the monitoring system.

撮像装置は、撮像した映像を送信する画像送信部、サーバ装置からの要求を受信する要求受信部、要求内容を撮像装置方向に適用するためのモーター制御部、要求内容を撮像装置画角に適用するための画角制御部を備える。   The imaging device includes an image transmission unit that transmits the captured video, a request reception unit that receives a request from the server device, a motor control unit that applies the requested content in the direction of the imaging device, and applies the requested content to the angle of view of the imaging device An angle-of-view control unit.

端末装置の、アプリケーションは大きく二つの機能に分かれ、一つは撮像対象空間を電子地図データとして表現したエリアマップ上で撮像装置からのイベント発生情報を視覚的に把握する機能であり、もう一つは、各撮像装置・エリアにおける発生イベントの頻度情報を視覚的に把握する機能である。   The application of the terminal device is roughly divided into two functions, one is a function to visually grasp event occurrence information from the imaging device on an area map that represents the imaging target space as electronic map data, and the other is This is a function for visually grasping frequency information of occurrence events in each imaging device / area.

サーバ装置は、撮像装置からの映像を受信する画像受信部、その画像を用いて演算を実施する画像処理演算部、前述の撮像装置の画面内座標とエリアマップ内座標の関連性及び画像処理演算結果を蓄積するデータベース部と、その管理を司るデータベース管理部、データベースを分析し映像監視システムを最適運用させるためのシステム運用支援部、その結果に基づき撮像装置に要求を投げる要求送信部、監視システム構成要素の設定等を統合管理するシステム統合管理部を備える。   The server device includes an image receiving unit that receives a video from the imaging device, an image processing calculation unit that performs an operation using the image, a relationship between the coordinates in the screen of the imaging device and the coordinates in the area map, and an image processing calculation result A database unit that stores data, a database management unit that manages the database, a system operation support unit that analyzes the database and optimally operates the video surveillance system, a request transmission unit that sends a request to the imaging device based on the result, and a monitoring system configuration A system integrated management unit that integrates and manages element settings and the like is provided.

実施形態によれば、複数種の画像解析から各特徴を統合的に分析し、十分でないカメラ台数のシステムにおいても、人手でやるよりはるかに有効なカメラ運用が可能になる。さらには、時間軸での分析を行うことにより、時間帯によってカメラの画像処理実施内容を変更し、リソースの最適配分も可能になる。例えば、搭載された画像処理の側面を考え、入退検知処理は建屋の入口、混雑判定処理は狭まった通路といった具合に適用することにより、システム内の全撮像装置それぞれが、搭載された全種類の画像処理を実施し、それを統合処理するのではないので、システム的制約を低減することができる。また、単純に人のノウハウだけで配置を決めるものではないので、機会の損失を低減させ、監視システムを最適運用することができる。   According to the embodiment, each feature is analyzed in an integrated manner from a plurality of types of image analysis, and even in a system with an insufficient number of cameras, camera operation that is much more effective than manual operation is possible. Furthermore, by performing analysis on the time axis, it is possible to change the contents of the image processing performed by the camera according to the time zone, and to perform optimal resource allocation. For example, considering the aspect of installed image processing, all the imaging devices in the system are all installed by applying entrance / exit detection processing to the entrance of a building, congestion judgment processing to a narrow passage, etc. Since the image processing is not performed and the integrated processing is not performed, system constraints can be reduced. Also, since the arrangement is not simply determined by human know-how, the loss of opportunity can be reduced and the monitoring system can be optimally operated.

実施形態は、特定人物検知(例えば、特開2012−124658号公報(参考文献1))、特定物体検索(例えば、特開2015−032133号公報(参考文献2))など他の画像処理検知・検索システムを本監視システムに組み合わせた場合において、イベント発生頻度の空間的・時間的分析によって、画角内の人物数や物体・行動数も増え、カメラ画角固定・機能固定で運用しているより効果的な運用が可能になる。これにより、設置カメラ台数の削減、監視労力の削減だけでなく、システム活用機会の増加、イベント検知率の向上につながる。   In the embodiment, a specific person detection (for example, JP 2012-124658 A (reference document 1)), a specific object search (for example, JP 2015-032133 (reference document 2)), and other image processing detection / When the search system is combined with this monitoring system, the number of people, objects, and actions in the field of view increases due to spatial and temporal analysis of the event occurrence frequency, and the camera is operated with fixed camera angle of view and functions. More effective operation becomes possible. This not only reduces the number of installed cameras and the monitoring effort, but also increases the system utilization opportunities and improves the event detection rate.

また、実施形態は3次元エリア情報とカメラ情報が統合管理されている状況下で活用することが望ましい。   In addition, it is desirable to use the embodiment in a situation where 3D area information and camera information are integrated and managed.

以下、実施例について、図面を用いて説明する。ただし、以下の説明において、同一構成要素には同一符号を付し繰り返しの説明を省略することがある。   Examples will be described below with reference to the drawings. However, in the following description, the same components may be denoted by the same reference numerals and repeated description may be omitted.

まず、実施例に係る監視システムの構成いついて図1を用いて説明する。監視システムは、ネットワーク100に、撮像装置101、サーバ装置201、端末装置301が接続され、互いに通信可能な状態で構成される。ネットワーク100は、データ通信を行う専用ネットワークやイントラネット、インターネット、無線LAN(Local Area Network)等のように各装置を相互に接続して通信を行う通信手段である。さらに、端末装置301には、外部入力デバイス401、外部出力デバイス402が接続される。撮像装置101、サーバ装置201、端末装置301については、各々複数装置が接続可能である。   First, the configuration of the monitoring system according to the embodiment will be described with reference to FIG. The monitoring system is configured such that an imaging device 101, a server device 201, and a terminal device 301 are connected to a network 100 and can communicate with each other. The network 100 is a communication unit that performs communication by connecting devices to each other, such as a dedicated network for data communication, an intranet, the Internet, and a wireless local area network (LAN). Furthermore, an external input device 401 and an external output device 402 are connected to the terminal device 301. A plurality of devices can be connected to each of the imaging device 101, the server device 201, and the terminal device 301.

撮像装置101は画像送信部102、要求受信部103、画角制御部104、モーター制御部105を備え、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)素子等の撮像部で被写体を撮像し、撮像した画像にデジタル変換処理を施し、変換された画像データを、ネットワーク100を介して録画装置へ出力するネットワークカメラや監視カメラ等の装置である。   The imaging apparatus 101 includes an image transmission unit 102, a request reception unit 103, an angle of view control unit 104, and a motor control unit 105, and captures an object with an imaging unit such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) element. Then, the image capturing apparatus is a device such as a network camera or a monitoring camera that performs digital conversion processing on the captured image and outputs the converted image data to the recording device via the network 100.

画像送信部102は撮像された画像データの装置外部への出力を行う処理部である。要求受信部103は装置外部からの要求命令を受信し、その内容を解読、装置内各処理部に伝達する処理部である。画角制御部104は、要求に応じて画角(パン・チルト・魚眼カメラの平面・立面展開後の切り出し領域)を変更適用する処理部である。モーター制御部105は、要求に応じて撮像装置高さ、向き(ヨー・ピッチ・ロール)を変更適用する処理部である。   The image transmission unit 102 is a processing unit that outputs captured image data to the outside of the apparatus. The request receiving unit 103 is a processing unit that receives a request command from the outside of the apparatus, decodes the content, and transmits it to each processing unit in the apparatus. The angle-of-view control unit 104 is a processing unit that changes and applies the angle of view (pan / tilt / fisheye camera plane / cut-out area after elevational expansion) as required. The motor control unit 105 is a processing unit that changes and applies the height and direction (yaw / pitch / roll) of the imaging device as required.

サーバ装置201は、画像受信部202、システム運用支援部203、要求送信部204、システム統合管理部205、画像処理演算部206、データベース部207、データベース管理部208の各処理部を備える。   The server apparatus 201 includes processing units such as an image receiving unit 202, a system operation support unit 203, a request transmission unit 204, a system integration management unit 205, an image processing calculation unit 206, a database unit 207, and a database management unit 208.

画像受信部202は装置外部からの画像入力を行う処理部であり、例えばネットワーク100を介して撮像装置101からの入力画像データの受信を行う。システム運用支援部203はデータベース部207からの各画像処理結果を空間的・時間的に解析し、その情報よりシステム内の複数の撮像装置101の各撮像装置に対して、画角・撮像装置の向き・その他撮像装置のパラメータのへの命令処理内容の作成を行う処理部である。要求送信部204はシステム運用支援部203で作成された命令内容の撮像装置への送信を行う処理部である。システム統合管理部205はネットワーク構成、各種プロセス設定等、システム全体の設定要素の管理部である。画像処理演算部206は受信画像について各種の画像処理演算を行う部分である。データベース部207は画像データや画像処理演算結果を位置情報・時刻情報等と紐(関連)づけて格納(記憶)する部分である。データベース管理部208はデータベース部207と端末装置301との間でのデータ入出力管理を行う処理部である。   The image receiving unit 202 is a processing unit that inputs an image from outside the apparatus, and receives input image data from the imaging apparatus 101 via the network 100, for example. The system operation support unit 203 spatially and temporally analyzes each image processing result from the database unit 207, and uses the information to determine the angle of view and the imaging device for each imaging device of the plurality of imaging devices 101 in the system. It is a processing unit that creates instruction processing contents for the direction and other parameters of the imaging apparatus. The request transmission unit 204 is a processing unit that transmits the command content generated by the system operation support unit 203 to the imaging apparatus. The system integrated management unit 205 is a management unit for setting elements of the entire system such as a network configuration and various process settings. The image processing calculation unit 206 is a part that performs various image processing calculations on the received image. The database unit 207 is a part that stores (stores) image data and image processing calculation results in association (position) with position information and time information. The database management unit 208 is a processing unit that performs data input / output management between the database unit 207 and the terminal device 301.

端末装置301上に例えばクライアントソフトウェアとして実装されるアプリは、エリアマップ表示部302、カメラ映像表示部305、画像受信部306、画像要求部307、演算結果要求部308、演算結果受信部309、演算結果表示部310、画面操作検知部312の各処理部よりなる。   For example, an application implemented as client software on the terminal device 301 includes an area map display unit 302, a camera video display unit 305, an image reception unit 306, an image request unit 307, a calculation result request unit 308, a calculation result reception unit 309, and a calculation result. Each processing unit includes a display unit 310 and a screen operation detection unit 312.

エリアマップ表示部302はデータベース部207より読み込んだエリアマップをGUI(Graphical User Interface)アプリケーション上に表示する処理部である。カメラ映像表示部305は画像受信部306で受信した画像をGUIアプリケーション上に表示する処理部である。画像受信部306は、サーバ装置201の画像受信部202と同種の機能をもつ処理部であり、ネットワーク100を介して撮像装置101等からの画像入力を行う処理部である。画像要求部307は装置外部へ画像出力を要求する処理部であり、撮像装置101へ画像データを要求する。演算結果要求部308は、ネットワーク100を介して、データベース管理部208に所定の条件(場所・時間等であり、幅を持って連続または断続指定が可能である。)を指定して所定の検索要求を行う処理部である。演算結果受信部309はその要求に応じた演算結果をデータベース部207から取得する処理部である。演算結果表示部310は取得した演算結果をGUIアプリケーション上にグラフィカル表示する処理部である。取得した複数種の演算結果についてのレイヤ管理が可能である。画面操作検知部312は外部入力デバイス401による操作の受け付けを行う処理部である。   The area map display unit 302 is a processing unit that displays an area map read from the database unit 207 on a GUI (Graphical User Interface) application. The camera video display unit 305 is a processing unit that displays the image received by the image receiving unit 306 on the GUI application. The image receiving unit 306 is a processing unit having the same type of function as the image receiving unit 202 of the server device 201, and is a processing unit that inputs an image from the imaging device 101 or the like via the network 100. The image request unit 307 is a processing unit that requests image output to the outside of the apparatus, and requests image data from the imaging apparatus 101. The calculation result request unit 308 specifies a predetermined condition (location, time, etc., which can be specified continuously or intermittently with a width) to the database management unit 208 via the network 100 and performs a predetermined search. A processing unit that makes a request. The calculation result receiving unit 309 is a processing unit that acquires a calculation result corresponding to the request from the database unit 207. The calculation result display unit 310 is a processing unit that graphically displays the acquired calculation result on the GUI application. It is possible to perform layer management for the obtained plural types of calculation results. The screen operation detection unit 312 is a processing unit that receives an operation by the external input device 401.

外部入力デバイス401はキーボードやポインティングデバイス(マウス)等で構成される。外部出力デバイス402はディスプレイ等で構成される。   The external input device 401 is composed of a keyboard, a pointing device (mouse), and the like. The external output device 402 includes a display or the like.

サーバ装置201、端末装置301は、ネットワーク機能を有する一般のPC(パーソナルコンピュータ)で実現してもよいし、専用の高性能端末でもよい。本構成では、常時駆動が要求される負荷の高い処理はサーバ装置201、グラフィカルな要素を要する機能は端末装置301と負荷分散しているが、構成はこの限りではなく同一装置内で実現してもよい。   The server device 201 and the terminal device 301 may be realized by a general PC (personal computer) having a network function, or may be a dedicated high-performance terminal. In this configuration, load processing that requires constant driving and high load processing is distributed to the server device 201 and functions that require graphical elements are distributed to the terminal device 301. However, the configuration is not limited to this, and the configuration is realized in the same device. Also good.

次に、監視システムの運用の流れについて図2Aおよび図2Bを用いて説明する。図2Aは実施例に係る監視システムの動作を説明するためのフローチャートである。図2Bは図2AのAおよびBの部分のフローチャートである。   Next, the operation flow of the monitoring system will be described with reference to FIGS. 2A and 2B. FIG. 2A is a flowchart for explaining the operation of the monitoring system according to the embodiment. FIG. 2B is a flowchart of portions A and B of FIG. 2A.

ステップS10:運用開始前に、各種装置接続を行う。   Step S10: Connect various devices before starting operation.

ステップS21:まずサーバ装置201は初期設定として、ネットワーク構成、各種プロセス設定、カメラ位置とエリアマップ間の対応付け情報等をシステム統合管理部205に設定する。カメラ位置とエリアマップ間の対応付けについては、後述する。   Step S21: First, the server apparatus 201 sets, as initial settings, network configuration, various process settings, association information between camera positions and area maps, and the like in the system integration management unit 205. The association between the camera position and the area map will be described later.

次に、実運用時の動作を説明する。   Next, the operation during actual operation will be described.

ステップS11:まず、撮像装置101は撮像部で撮影した画像データ106を画像送信部102からネットワーク100を介して、サーバ装置201の画像受信部202に送信する。   Step S11: First, the imaging apparatus 101 transmits the image data 106 captured by the imaging unit from the image transmission unit 102 to the image reception unit 202 of the server apparatus 201 via the network 100.

ステップS22:サーバ装置201の画像受信部202は撮像装置101の撮像部が撮像した画像データ106を受信する。   Step S22: The image receiving unit 202 of the server apparatus 201 receives the image data 106 captured by the imaging unit of the imaging apparatus 101.

ステップS23:画像処理演算部206は、画像受信部202が受信した画像データ106に対して所定の画像処理演算を行って解析し、演算結果(解析結果)をデータベース部207に出力する。   Step S <b> 23: The image processing calculation unit 206 performs a predetermined image processing calculation on the image data 106 received by the image receiving unit 202 and analyzes it, and outputs a calculation result (analysis result) to the database unit 207.

ステップS24:データベース部207は、演算結果を画像データ106と紐付けて記憶(格納)する。ここで、画像処理演算部206は画像種ごとに複数個用意され、全ての演算結果がデータベース部207に集約される。   Step S24: The database unit 207 stores (stores) the calculation result in association with the image data 106. Here, a plurality of image processing calculation units 206 are prepared for each image type, and all calculation results are collected in the database unit 207.

サーバ装置201は、この処理を繰り返して、エリア内位置情報(A)、測定時間(T)、画像処理種(K)、画像処理演算値(V)をデータベース部207に蓄積していく。ここで、エリア内位置情報(A)は、XYZ空間座標で表現できる点情報、座標点の複合により表現できる面情報、角度情報と組み合わせたベクトルデータ情報など様々な場合を想定する。   The server apparatus 201 repeats this process, and accumulates the in-area position information (A), the measurement time (T), the image processing type (K), and the image processing calculation value (V) in the database unit 207. Here, in-area position information (A) assumes various cases such as point information that can be expressed in XYZ space coordinates, surface information that can be expressed by a combination of coordinate points, and vector data information combined with angle information.

ステップS25:システム運用支援部203は、データベース部207のデータベース情報である画像処理結果を、空間情報と時間情報から統合的に演算処理する、各撮像装置についての最適運用演算を行う。具体例を以下に説明する。   Step S25: The system operation support unit 203 performs an optimal operation calculation for each imaging apparatus, which performs an integrated calculation process on the image processing result that is the database information of the database unit 207 from the spatial information and the time information. A specific example will be described below.

画像処理種の具体的機能として、以下の機能が監視システムに実装されている。
(1)顔検知:撮像装置画角内から人物の顔領域を矩形情報として検出する。
(2)特定人物検知:あらかじめ装置に登録した人物と一致する人物を撮像装置画角内から検出する。(参考文献1)
(3)滞留検知:撮像画角内各点から物体の滞留度合いを検出する。
(4)人流検知:撮影画角内での物体の流量の度合い、ベクトルを検出する。
(5)放置物検知:撮影画角内に放置された物体を検出する。
(6)特定行動検知:撮影画角内から人物等が倒れる、争うなどの特定行動を検出する。
As specific functions of image processing types, the following functions are implemented in the monitoring system.
(1) Face detection: A face area of a person is detected as rectangular information from within the angle of view of the imaging device.
(2) Specific person detection: A person who matches the person registered in advance in the apparatus is detected from within the angle of view of the imaging apparatus. (Reference 1)
(3) Stay detection: The degree of stay of an object is detected from each point within the imaging angle of view.
(4) Human flow detection: detecting the degree and vector of the flow rate of an object within the shooting angle of view.
(5) Abandoned object detection: Detects an object left in the shooting angle of view.
(6) Specific action detection: Detects a specific action such as a person falling or fighting from within the shooting angle of view.

この中で、「顔検知(1)」「滞留検知(3)」「人流検知(4)」は基礎的な画像処理であり、その情報の上に「特定人物顔検知(2)」「放置物検知(5)」「特定行動検知(6)」といった応用的な画像処理が成り立つといった関係にある。運用の流れは次の通りである。   Among these, “face detection (1)”, “stagnation detection (3)”, “human flow detection (4)” are basic image processing, and “specific person face detection (2)” “leaving” is left on the information. There is a relation that applied image processing such as object detection (5) and specific action detection (6) is established. The operational flow is as follows.

ステップS26:サーバ装置201は、応用的な画像処理からの処理結果を、システム運用支援部203にフィードバックする。最適な画角情報等のフィードバック情報は、要求(209)として要求送信部204を介し、撮像装置101に送られる。   Step S26: The server device 201 feeds back the processing result from the applied image processing to the system operation support unit 203. Feedback information such as optimal angle-of-view information is sent to the imaging apparatus 101 via the request transmission unit 204 as a request (209).

ステップS12:撮像装置101の要求受信部103は、サーバ装置201から要求が(209)あるかどうかを判断する。YESの場合、ステップS13に移り、NOの場合、ステップS11に戻る。   Step S12: The request receiving unit 103 of the imaging apparatus 101 determines whether there is a request (209) from the server apparatus 201. If yes, then continue with step S13, otherwise return to step S11.

ステップS13:撮像装置101は要求受信部103で要求内容を解読する。   Step S13: The imaging apparatus 101 decodes the request content at the request receiving unit 103.

ステップS14:撮像装置101は、さらに、撮像装置の物理的位置に関する要求をモーター制御部105へ、画角や映像設定などに関する要求を画角制御部104へ伝達し、モーター制御部105および画角制御部104の各々の処理部は撮像装置101を制御する。これで、撮像装置101の運用が最適化され、それにより基礎的な画像処理のイベント検知機会が増え、さらに応用的な画像処理のイベント検知機会が増えるといった関係にもある。   Step S14: The imaging apparatus 101 further transmits a request regarding the physical position of the imaging apparatus to the motor control unit 105 and a request regarding the angle of view and video setting to the angle of view control unit 104. Each processing unit of the control unit 104 controls the imaging apparatus 101. As a result, the operation of the imaging apparatus 101 is optimized, thereby increasing the number of event detection opportunities for basic image processing and further increasing the number of event detection opportunities for applied image processing.

具体的状況として、例えば、図3に示すように、システムが対象とする建屋内に複数台のパンチルトズーム対応の撮像装置101aや魚眼撮像装置101bを設置する。平日が、朝の時間帯は建屋入口から建屋中央部に向かっての人の流れが多く、昼の時間帯は人通りが少なく、夕方の時間帯は建屋中央部から建屋入口に向かっての人の流れが多い。休日は常に人通りが少ない、といった特徴があるとする。   As a specific situation, for example, as shown in FIG. 3, a plurality of pan-tilt-zoom compatible imaging devices 101a and fish-eye imaging devices 101b are installed in a building targeted by the system. On weekdays, there are many people flowing from the building entrance to the center of the building during the morning hours, there are few people in the daytime, and people from the center of the building toward the building entrance during the evening hours. There is a lot of flow. It is assumed that there is a characteristic that there is always little traffic on holidays.

システム運用開始時は上記特徴がわからないことが多い。さらに、長期間運用しないとわかりえない情報もある。   The above features are often unknown at the start of system operation. In addition, there is information that cannot be understood unless it is operated for a long time.

この状況でシステム運用を始めることにより、「顔検知(1)」「滞留検知(3)」「人流検知(4)」のような基礎的な画像処理から、各画像処理によるイベント発生の頻出ポイントがわかる。その解析結果に基づいて、下記(a)〜(d)等により、検知機会を増やす運用が可能となる。
(a)滞留検知(3)の度数が高いエリアに、周辺の撮像装置101aの画角を向ける。
(b)対象のエリアにある撮像装置101aに対して、4K、8Kといった高解像度で運用する。
(c)人流検知(4)より検出された人流ベクトルの方向に撮像装置101aの画角を合わせる。ことで、顔検知(1)の機会を増やす。
(d)魚眼撮像装置101bの撮像映像の展開画角について、通常運用時は平面に展開して、平面画角(天井から見下ろした画角)が適している滞留検知(3)で運用し、立面での撮像が適している人流検知(4)の発生頻度の高い時間帯・場所においては、立面に展開して画像処理する。
By starting system operation in this situation, frequent occurrence points of events by each image processing from basic image processing such as “face detection (1)”, “stay detection (3)”, “human flow detection (4)” I understand. Based on the analysis results, the following (a) to (d) can be used to increase the detection opportunities.
(A) The angle of view of the surrounding imaging device 101a is directed to an area where the frequency of stay detection (3) is high.
(B) The imaging apparatus 101a in the target area is operated at a high resolution such as 4K or 8K.
(C) Human flow detection The angle of view of the imaging device 101a is adjusted to the direction of the human flow vector detected by (4). This increases the opportunities for face detection (1).
(D) The developed view angle of the picked-up image of the fish-eye image pickup device 101b is developed on a flat surface during normal operation, and is operated with the stay detection (3) where the flat view angle (view angle looking down from the ceiling) is suitable. In the time zone / location where the occurrence frequency of the human flow detection (4) is suitable, the image processing is performed on the elevation.

さらに、時間的解析により、下記(e)〜(g)等の運用もすることができ、処理負荷の分散、運用費の低減にもつながる。
(e)朝と夕方で撮像装置101aの画角を人流方向に回転させる
(f)人流密度の高い平日朝夕は、特に密度の高いエリアにおいて周辺の撮像装置101aの解像度を高くする
(g)人流密度の低い休日や昼間は撮像装置運用を最低限にする(全体は魚眼撮像装置101bでカバー)
これによって、「特定人物顔検知(2)」「放置物検知(5)」「特定行動検知(6)」といった応用的な画像処理の検出機会も増えることが期待できる。各検知イベントが頻出した地点、時間帯をシステム運用支援部203にフィードバックすることにより、その地点を重点的に撮像する撮像装置画角に変えることで、さらに応用的な画像処理の検出機会も増えることも期待できる。
Furthermore, the following (e) to (g) can be operated by temporal analysis, which leads to distribution of processing load and reduction of operation costs.
(E) Rotating the angle of view of the image pickup apparatus 101a in the direction of the person flow in the morning and evening (f) In the morning and evening on a weekday when the flow density is high, the resolution of the surrounding image pickup apparatus 101a is increased particularly in a high-density area. Minimize the operation of the imaging device during low-density holidays and daytime (the whole is covered with the fish-eye imaging device 101b)
As a result, it is expected that opportunities for detection of applied image processing such as “specific human face detection (2)”, “left object detection (5)”, and “specific behavior detection (6)” will increase. By feeding back to the system operation support unit 203 the points and time zones where each detection event occurred frequently, changing the imaging device angle of view to focus on those points further increases the chances of detection of applied image processing. I can also expect that.

以下、サーバ装置201と端末装置301間の実運用時の動作について図2Aおよび図2Bを用いて説明する。   Hereinafter, operations during actual operation between the server apparatus 201 and the terminal apparatus 301 will be described with reference to FIGS. 2A and 2B.

ステップS31:端末装置301に実装されたアプリケーションによる実現方法の一例を下記する。GUIアプリケーション上の、エリアマップ表示部302には、すでにカメラ設置座標が登録されているものとする。撮像装置101の各々のカメラ設置座標とカメラIPアドレスを紐づけた情報は、サーバ装置201のデータベース部207に格納されているものとする。エリアマップ上のカメラ座標点をマウスクリック押下(カメラ映像表示要求ありと)すると、対応するカメラ映像がカメラ映像表示部305に表示される。その仕組みとして、カメラ座標点をクリックすると端末装置301の演算結果要求部308はサーバ装置201のデータベース管理部208に該当する座標位置のカメラIPアドレスを問い、データベース部207に格納のアドレスを端末装置301の演算結果受信部309に返送する。   Step S31: An example of an implementation method using an application installed in the terminal device 301 will be described below. It is assumed that camera installation coordinates are already registered in the area map display unit 302 on the GUI application. It is assumed that information in which each camera installation coordinate of the imaging apparatus 101 is associated with the camera IP address is stored in the database unit 207 of the server apparatus 201. When a camera coordinate point on the area map is clicked with a mouse click (camera image display requested), the corresponding camera image is displayed on the camera image display unit 305. As the mechanism, when the camera coordinate point is clicked, the calculation result request unit 308 of the terminal device 301 inquires of the database management unit 208 of the server device 201 about the camera IP address of the corresponding coordinate position, and stores the address stored in the database unit 207 as The result is returned to the operation result receiving unit 309 at 301.

ステップS32:そして、画像要求部307は、ネットワーク100を介して演算結果受信部309が受信したIPアドレスの撮像装置101に画像データを要求(画像要求(303)を送信)する。   Step S32: The image request unit 307 requests image data (transmits an image request (303)) to the imaging device 101 having the IP address received by the calculation result receiving unit 309 via the network 100.

ステップS15:画像要求(303)を受信した撮像装置101の要求受信部103は、端末装置301から画像要求(303)があるかどうかを判定する。YESの場合、撮像装置101の撮像部が撮影した画像データを画像送信部102に送り、ステップS16に移る。NOの場合、ステップS11に戻る。   Step S15: Upon receiving the image request (303), the request receiving unit 103 of the imaging apparatus 101 determines whether there is an image request (303) from the terminal device 301. If YES, the image data captured by the imaging unit of the imaging apparatus 101 is sent to the image transmission unit 102, and the process proceeds to step S16. If NO, the process returns to step S11.

ステップS16:画像送信部102は、ネットワーク100を介して撮像装置101の撮像部が撮影した画像データ(107)を端末装置301の画像受信部306に送信する。   Step S <b> 16: The image transmission unit 102 transmits the image data (107) captured by the imaging unit of the imaging device 101 to the image reception unit 306 of the terminal device 301 via the network 100.

ステップS33:画像受信部306は、撮像装置101の画像送信部102から送られる画像107を受け取る(撮影画像を受信する)と、カメラ映像表示部305に送る。   Step S33: The image receiving unit 306 receives the image 107 transmitted from the image transmitting unit 102 of the imaging apparatus 101 (receives a captured image), and transmits it to the camera video display unit 305.

ステップS34:カメラ映像表示部305は画像107を外部出力デバイス402のディスプレイに表示する(カメラ画像表示)。これを繰り返すことで連続的な映像(動画)となる。   Step S34: The camera video display unit 305 displays the image 107 on the display of the external output device 402 (camera image display). By repeating this, it becomes a continuous video (moving image).

ステップS35:また、エリアマップ上にはサーバ装置201による各種画像処理演算結果を重畳表示することができる。そのためには、端末装置301は演算結果要求があるかどうかを判断する。YESの場合、ステップS36に移り、NOの場合、ステップS31またはステップS35に戻る。   Step S35: Also, various image processing calculation results by the server device 201 can be superimposed and displayed on the area map. For this purpose, the terminal device 301 determines whether there is a calculation result request. If yes, then continue with step S36, if no, return to step S31 or step S35.

ステップS36:演算結果要求部308はサーバ装置201のデータベース管理部208に特定条件(場所・時間)を指定した演算結果要求(304)を送信する。   Step S36: The calculation result request unit 308 transmits a calculation result request (304) designating specific conditions (location / time) to the database management unit 208 of the server apparatus 201.

ステップS27:データベース管理部208は端末装置301から演算結果要求があるかどうかを判断する。YESの場合、ステップS28に移り、NOの場合、ステップS28に戻る。   Step S27: The database management unit 208 determines whether or not there is a calculation result request from the terminal device 301. If yes, then continue with step S28, otherwise, return to step S28.

ステップS28:データベース管理部208はデータベース部207から該当演算結果を検索絞り込みしたものを読み出し、端末装置301の演算結果受信部309に返す(該演算結果送信)。   Step S <b> 28: The database management unit 208 reads out the search result of the corresponding calculation result from the database unit 207 and returns it to the calculation result receiving unit 309 of the terminal device 301 (transmission of the calculation result).

ステップS37:端末装置301は、演算結果(108)を演算結果受信部309で受信すると、その結果を用いて、演算結果表示部310が、エリアマップ上に重畳表示(演算結果表示)する。   Step S37: When the calculation result (108) is received by the calculation result receiving unit 309, the terminal device 301 causes the calculation result display unit 310 to superimpose and display (calculation result display) on the area map using the result.

表示には、短期的表示と長期的表示の2種類を有する。短期的表示は、現在時刻よりたとえば数分前までのイベント発生情報がエリア上に表現される。イベント発生はアイコン表示し、その選択により、該当時間の映像を、録画機能を有する撮像装置101に要求し、再生することができる機能を有する。イベント発生ポイントに人員を発動させるなどに活用することができる。   There are two types of display: short-term display and long-term display. In the short-term display, event occurrence information up to several minutes before the current time is expressed on the area. When an event occurs, an icon is displayed, and by selecting the event, the imaging device 101 having a recording function is requested to play back an image of the corresponding time and can be played back. It can be used to activate personnel at event points.

また、長期的表示は、表示したい期間を絞り込む(連続・断続両方可能)ことにより、その期間中に発生した各イベントの頻度情報を表示し、イベント発生が多い地点を視覚的に把握する機能である。さらに、各イベントはレイヤ管理されており、オンオフ切り替えによりエリア上への重畳の組合せを自由に変えることができ、分析に役立てることができる。これは、建屋内の人物配置計画などに活用できる。   The long-term display is a function that displays the frequency information of each event that occurred during that period by narrowing down the period you want to display (both continuous and intermittent), and visually grasp the locations where events occur frequently. is there. Furthermore, each event is layer-managed, and the combination of superimposing on the area can be freely changed by on / off switching, which can be used for analysis. This can be used for a person arrangement plan in a building.

次に、カメラ画像とエリアマップ間の測定点と矩形の対応付けについて図4〜図8を用いて説明する。図4は実施例に係る端末装置の動作を説明するためのフローチャートである。図5は実施例に係る端末装置の座標対応付け画面を説明するための図である。   Next, the correspondence between the measurement point and the rectangle between the camera image and the area map will be described with reference to FIGS. FIG. 4 is a flowchart for explaining the operation of the terminal device according to the embodiment. FIG. 5 is a diagram for explaining a coordinate association screen of the terminal device according to the embodiment.

ステップS311:端末装置301は、実装されているGUIのアプリケーションを起動する。   Step S311: The terminal device 301 activates an installed GUI application.

ステップS312:エリアマップ表示部302の機能を用いて、図5の座標対応付け画面4001にエリアマップ2302を表示する。エリアマップ2302は、線分から構成され、各々の線分とマップ内座標には高さ情報が紐(関連)づけられている。   Step S312: The area map 2302 is displayed on the coordinate association screen 4001 of FIG. The area map 2302 is composed of line segments, and height information is linked (associated) with each line segment and the coordinates in the map.

ステップS313:端末装置301は、図5において、エリアマップ2302のカメラ座標点にカメラアイコン4020を重畳し、カメラアイコン4020を外部入力デバイス401のマウスでクリックすることで撮像装置101のIPアドレス(カメラIPアドレス)を取得する。   Step S313: In FIG. 5, the terminal device 301 superimposes the camera icon 4020 on the camera coordinate point of the area map 2302, and clicks the camera icon 4020 with the mouse of the external input device 401, whereby the IP address of the imaging device 101 (camera IP Address).

端末装置301は、カメラIPアドレスを取得後、カメラ画角内測定点と矩形をエリアマップに対応付けを行うフェーズに移る。   After acquiring the camera IP address, the terminal device 301 proceeds to a phase in which the measurement point within the camera angle of view and the rectangle are associated with the area map.

ステップS314:端末装置301は、エリアマップ2302内の対応付けカメラを選択(測定点・矩形付与カメラ選択)する。演算結果要求部308がカメラ映像をカメラ映像表示部305に表示させるため、画面操作検知部312が検知したカメラ座標点に該当する撮像装置101のIPアドレスをサーバ装置201のデータベース管理部208へ要求する。データベース管理部208は、データベース部207に格納(記憶)しているIPアドレスを読み出して端末装置301の演算結果受信部309に返送する。   Step S314: The terminal device 301 selects an associated camera in the area map 2302 (selects a measurement point / rectangular camera). Since the calculation result request unit 308 causes the camera video display unit 305 to display the camera video, the IP address of the imaging device 101 corresponding to the camera coordinate point detected by the screen operation detection unit 312 is requested to the database management unit 208 of the server device 201. To do. The database management unit 208 reads the IP address stored (stored) in the database unit 207 and returns it to the calculation result receiving unit 309 of the terminal device 301.

ステップS315:そして、画像要求部307は、ネットワーク100を介して画像要求(303)を演算結果受信部309が受信したIPアドレスの撮像装置101に要求する。   Step S315: The image requesting unit 307 requests the image request (303) from the imaging apparatus 101 having the IP address received by the calculation result receiving unit 309 via the network 100.

ステップS316:画像要求(303)を受信した撮像装置101の要求受信部103は、端末装置301から画像要求(303)ありと判定し(S15)、撮像装置101の撮像部が撮影した画像データを画像送信部102に送る。画像送信部102は、ネットワーク100を介して撮像装置101の撮像部が撮影した画像データ(107)を端末装置301の画像受信部306に送信する。   Step S316: Upon receiving the image request (303), the request receiving unit 103 of the imaging device 101 determines that there is an image request (303) from the terminal device 301 (S15), and the image data captured by the imaging unit of the imaging device 101 is obtained. The image is sent to the image transmission unit 102. The image transmission unit 102 transmits the image data (107) captured by the imaging unit of the imaging device 101 to the image reception unit 306 of the terminal device 301 via the network 100.

ステップS317:端末装置301の画像受信部306は、画像データ(107)を受信すると、カメラ映像表示部305に送る。カメラ映像表示部305は、画像データ(107)(要求した時点での静止フレーム)を表示する。   Step S317: Upon receiving the image data (107), the image receiving unit 306 of the terminal device 301 sends it to the camera video display unit 305. The camera video display unit 305 displays the image data (107) (still frame at the time of request).

次に、実施例に係る端末装置のエリアマップ調整部と3次元(3D)処理部について図4と図6を用いて動作を説明する。図6は実施例に係る端末装置のエリアマップ調整部と3D処理部を説明するための図である。   Next, operations of the area map adjustment unit and the three-dimensional (3D) processing unit of the terminal device according to the embodiment will be described with reference to FIGS. 4 and 6. FIG. 6 is a diagram for explaining the area map adjustment unit and the 3D processing unit of the terminal device according to the embodiment.

ステップS318:端末装置301は、図6のエリアマップ2302上の領域5011が領域選択する。   Step S318: The terminal device 301 selects an area 5011 on the area map 2302 in FIG.

ステップS319:端末装置301は、操作群5010に対する外部入力デバイス401のマウス等の操作に従いエリアマップ調整部303がエリアマップの拡大、縮小、回転、切り出しを平面領域5100に対して実施する(平面領域変形)。   Step S319: In the terminal device 301, the area map adjustment unit 303 performs area map enlargement, reduction, rotation, and clipping on the plane area 5100 in accordance with the operation of the mouse or the like of the external input device 401 with respect to the operation group 5010 (planar area deformation). .

ステップS320:次に、端末装置301の3D処理部(不図示)は、2次元平面で表現されたエリアマップ5100を3次元表示するため、領域立体化を実施する。   Step S320: Next, a 3D processing unit (not shown) of the terminal device 301 performs region three-dimensionalization in order to display the area map 5100 expressed in a two-dimensional plane in a three-dimensional manner.

ステップS321:端末装置301の3D処理部は、その調整(立体領域変形・調整)を実施する。   Step S321: The 3D processing unit of the terminal device 301 performs the adjustment (three-dimensional region modification / adjustment).

ステップS322:端末装置301の3D処理部は、例えば、パン・チルト、ヨー・ピッチ・ロールの調整ボタン(操作群)5020などの操作に従い、3D化したエリアマップ(5101)をカメラ画像に近づけるためのフィッティングを行う。   Step S322: For example, the 3D processing unit of the terminal device 301 makes the 3D area map (5101) closer to the camera image in accordance with the operation of the pan / tilt and yaw / pitch / roll adjustment buttons (operation group) 5020. Perform fitting.

次に、実施例に係る端末装置の測定点と矩形の付与について図4と図7を用いて説明する。図7は実施例に係る端末装置の測定点と矩形の付与を説明するための座標対応付け画面の図である。   Next, provision of measurement points and rectangles of the terminal device according to the embodiment will be described with reference to FIGS. 4 and 7. FIG. 7 is a diagram of a coordinate association screen for explaining the provision of measurement points and rectangles of the terminal device according to the embodiment.

図7において、端末装置301は、立体の特定区画における立体エリアマップ上に、カメラ画像をフローティング6001、半透明表示させ、フィッティング3008を実施する。   In FIG. 7, the terminal device 301 causes the camera image to be displayed in a floating 6001 and semi-transparent manner on the three-dimensional area map in the three-dimensional specific section, and performs the fitting 3008.

ステップS323:端末装置301は、フィッティング完了後、カメラ画像上における測定点・矩形を立体エリアマップ上に描画(測定点・矩形付与)する。   Step S323: After the fitting is completed, the terminal device 301 draws the measurement points / rectangles on the camera image on the solid area map (giving measurement points / rectangles).

ステップS324:端末装置301は、幾何学演算により描画結果を平面エリアマップ上へ落とす(床面投射)。   Step S324: The terminal device 301 drops the drawing result onto the plane area map by geometric calculation (floor surface projection).

端末装置301は、例えば、測定点・矩形描画を実現するため、座標対応付け画面4001上に測定点アイコン4002や測定矩形アイコン4003が用意され、測定点アイコン4002が外部入力デバイス401のマウスでクリックされ、その後にエリアマップ上で再度クリックされると測定点6002を確定し、測定矩形アイコン4003がマウスクリック後にエリアマップ上で閉じた矩形が描写6003されると測定矩形を確定する。   For example, the terminal device 301 is provided with a measurement point icon 4002 and a measurement rectangle icon 4003 on the coordinate association screen 4001 in order to realize measurement point / rectangular drawing, and the measurement point icon 4002 is clicked with the mouse of the external input device 401. If the measurement point 6002 is clicked again on the area map after that, the measurement point 6002 is determined, and if the measurement rectangle icon 4003 is drawn 6003 on the area map after the mouse is clicked, the measurement rectangle is determined.

次に、実施例に係る端末装置の測定点と矩形の平面エリア上の描画(床面投射)について図8を用いて説明する。図8は実施例に係る端末装置の測定点と矩形の平面エリア上の描画について説明するための図であり、図8(A)は立体エリアマップ、図8(B)は平面エリアマップ、図8(C)は床面投影である。   Next, measurement points and drawing on the rectangular plane area (floor projection) of the terminal device according to the embodiment will be described with reference to FIG. 8A and 8B are diagrams for explaining the measurement points of the terminal device according to the embodiment and the drawing on the rectangular planar area. FIG. 8A is a three-dimensional area map, FIG. 8B is a planar area map, and FIG. C) is a floor projection.

図8において、端末装置301は、例えば、図8(A)の立体エリアマップ上で描画した点・矩形が、図8(C)のカメラ焦点距離の垂直平面7002に描かれた場合に、撮像装置101のレンズ中心と各点を結んだ線7004を床面まで伸ばしたときに床と交差した各点7007を平面エリアマップ上に投射する。図8ではカメラ奥行方向をイメージしているが、左右方向について同様に実施する。   In FIG. 8, for example, the terminal device 301 displays an imaging device when a point / rectangle drawn on the three-dimensional area map in FIG. 8A is drawn on the vertical plane 7002 of the camera focal length in FIG. When the line 7004 connecting the center of the lens 101 and each point is extended to the floor surface, each point 7007 intersecting the floor is projected onto the plane area map. Although the camera depth direction is imaged in FIG. 8, it carries out similarly about the left-right direction.

端末装置301は、座標情報が確定後、座標情報送信部311からサーバ装置201へ座標情報(311)を送信する。   After the coordinate information is confirmed, the terminal device 301 transmits the coordinate information (311) from the coordinate information transmission unit 311 to the server device 201.

サーバ装置201のデータベース部207は、受信した座標情報(311)を格納(記憶)する。   The database unit 207 of the server apparatus 201 stores (stores) the received coordinate information (311).

次に、実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念について図9を用いて説明する。図9は実施例に係る端末装置のカメラ画像とエリアマップ間の座標対応付けの幾何学計算概念を説明するための図であり、図9(A)はカメラ画像、図9(B)は床面投影である。   Next, a geometric calculation concept of coordinate association between the camera image and the area map of the terminal device according to the embodiment will be described with reference to FIG. 9A and 9B are diagrams for explaining a geometric calculation concept of coordinate correspondence between the camera image and the area map of the terminal device according to the embodiment. FIG. 9A is a camera image, and FIG. 9B is a floor surface. It is a projection.

図9において、端末装置301は、フィッティング時、撮像装置101のレンズ中心点から鉛直に伸びる垂線ベクトル角8007から、エリアマップ基準ベクトル角8008に対するヨー・ピッチ・ロール角、レンズの左下点・右下点に対応する各々の床面点間距離8006から、パン・チルトの度合いも自動幾何学計算し、サーバ装置201のデータベース部207に送信する。   In FIG. 9, the terminal device 301 performs a yaw / pitch / roll angle with respect to an area map reference vector angle 8008 from a perpendicular vector angle 8007 extending vertically from the lens center point of the imaging device 101 at the time of fitting. The degree of pan / tilt is automatically geometrically calculated from each of the floor surface point distances 8006 corresponding to, and transmitted to the database unit 207 of the server apparatus 201.

サーバ装置201のデータベース部207は、受信したパン・チルトの度合いを格納(記憶)する。   The database unit 207 of the server apparatus 201 stores (stores) the received pan / tilt degree.

実施例を監視システムに適用し運用することで、システム全体の高効率制御をすることができる。   By applying the embodiment to the monitoring system and operating it, high-efficiency control of the entire system can be performed.

実施例に係る監視システムにおいて、撮像装置、端末装置、サーバ装置が協調動作し、撮像装置画像による画像処理演算結果を空間情報と時間情報の両面から解析し、システム内の撮像装置にフィードバックすることにより、撮像装置内での画像処理におけるイベント発生機会を向上することができ、システム運用の高効率化が可能になる。   In the monitoring system according to the embodiment, the imaging device, the terminal device, and the server device operate cooperatively, analyze the image processing calculation result based on the imaging device image from both the spatial information and the time information, and feed back to the imaging device in the system. As a result, an event occurrence opportunity in image processing within the imaging apparatus can be improved, and the efficiency of system operation can be improved.

実施例に係る監視システムにおいて、撮像装置による画像処理間での各演算結果が協調しあうことにより、それぞれの画像処理におけるイベント発生機会を相乗的に向上させることができる。   In the monitoring system according to the embodiment, each calculation result between the image processes performed by the imaging apparatus cooperates to synergistically improve an event occurrence opportunity in each image process.

実施例に係る監視システムにおいて撮像装置画像による画像処理演算結果を監視エリアマップ上に対応させ、エリアマップ上で、短期的、または長期的な、各画像処理演算結果をグラフィカルに表示することにより、監視エリア内の人員発動や、人員配置計画などに利用することができる。   In the monitoring system according to the embodiment, the image processing calculation result by the imaging device image is made to correspond to the monitoring area map, and the short-term or long-term image processing calculation result is graphically displayed on the area map, thereby It can be used for internal personnel activation and personnel allocation planning.

以上、本発明者によってなされた発明を実施形態および実施例に基づき具体的に説明したが、本発明は、上記実施形態および実施例に限定されるものではなく、種々変更可能であることはいうまでもない。   Although the invention made by the present inventor has been specifically described based on the embodiments and examples, the present invention is not limited to the above-described embodiments and examples, and various modifications can be made. Not too long.

100…ネットワーク、101…撮像装置、102…画像送信部、103…要求受信部、104…画角制御部、105…モーター制御部、201…サーバ装置、202…画像受信部、203…システム運用支援部、204…要求送信部、205…システム統合管理部、206…画像処理演算部、207…データベース部、208…データベース管理部、301…端末装置、302…エリアマップ表示部、305…カメラ映像表示部、306…画像受信部、307…画像要求部、308…演算結果要求部、309…演算結果受信部、310…演算結果表示部、312…画面操作検知部、401…外部入力デバイス、402…外部出力デバイス DESCRIPTION OF SYMBOLS 100 ... Network, 101 ... Imaging device, 102 ... Image transmission part, 103 ... Request reception part, 104 ... View angle control part, 105 ... Motor control part, 201 ... Server apparatus, 202 ... Image reception part, 203 ... System operation support , 204 ... Request transmission unit, 205 ... System integrated management unit, 206 ... Image processing operation unit, 207 ... Database unit, 208 ... Database management unit, 301 ... Terminal device, 302 ... Area map display unit, 305 ... Camera video display unit 306: Image reception unit 307: Image request unit 308: Calculation result request unit 309: Calculation result reception unit 310: Calculation result display unit 312: Screen operation detection unit 401: External input device 402: External Output device

Claims (4)

撮像した画像を送信する画像送信部と、要求を受信する要求受信部と、前記要求を撮像装置方向に適用するためのモーター制御部と、前記要求を撮像装置画角に適用するための画角制御部と、有する撮像装置と、
前記撮像装置からの画像を用いて演算を実施する画像処理演算部と、前記画像処理演算部の演算結果を蓄積するデータベース部と、前記データベース部に蓄積される前記演算結果を空間的および時間的に解析するシステム運用支援部と、前記システム運用支援部の解析結果に基づき前記撮像装置に前記要求を送信する要求送信部と、を有するサーバ装置と、
を備える監視システム。
An image transmission unit for transmitting a captured image, a request reception unit for receiving a request, a motor control unit for applying the request to the imaging device direction, and an angle of view for applying the request to the imaging device angle of view A control unit, an imaging device having,
An image processing operation unit that performs an operation using an image from the imaging device, a database unit that stores the operation result of the image processing operation unit, and the operation result stored in the database unit in terms of space and time A server apparatus having a system operation support unit that analyzes the request, and a request transmission unit that transmits the request to the imaging device based on an analysis result of the system operation support unit,
A monitoring system comprising:
請求項1において、
撮像対象空間を電子地図データとして表現したエリアマップ上で前記撮像装置からのイベント発生情報を視覚的に把握する手段と、各撮像装置およびエリアにおける発生イベントの頻度情報を視覚的に把握する手段と、を有する端末装置を備え、
前記データベース部は、前記撮像装置の画面内座標とエリアマップ内座標の関連性を蓄積する監視システム。
In claim 1,
Means for visually grasping event occurrence information from the imaging device on an area map representing the imaging target space as electronic map data; means for visually grasping frequency information of occurrence events in each imaging device and area; A terminal device having
The database unit is a monitoring system that accumulates relevance between in-screen coordinates and area map coordinates of the imaging apparatus.
請求項2において、
前記端末装置は、前記撮像装置に画像要求を行う画像要求部と、画像受信部と、カメラ映像表示部と、前記サーバ装置に所定条件を指定した演算結果を要求する演算結果要求部と、演算結果受信部と、演算結果表示部と、を有し、
前記要求受信部は前記画像要求に基づいて前記画像受信部に撮像した画像を送信し、
前記カメラ映像表示部は前記画像受信部が受信した画像を表示し、
前記サーバ装置は、前記演算結果要求部からの要求に基づいて、前記データベース部から前記演算結果を読み出して、前記演算結果受信部に送信し、
前記演算結果表示部は、前記演算結果受信部が受信した演算結果を前記エリアマップ上に重畳表示する監視システム。
In claim 2,
The terminal device includes an image requesting unit that requests an image from the imaging device, an image receiving unit, a camera video display unit, a calculation result requesting unit that requests a calculation result specifying a predetermined condition from the server device, A result receiving unit and a calculation result display unit;
The request receiving unit transmits an image captured to the image receiving unit based on the image request,
The camera video display unit displays the image received by the image receiving unit,
The server device reads the calculation result from the database unit based on a request from the calculation result request unit, and transmits the calculation result to the calculation result reception unit.
The calculation result display unit superimposes and displays the calculation result received by the calculation result receiving unit on the area map.
請求項3において、
前記撮像装置は、パンチルトズーム対応の撮像装置と魚眼撮像装置であり、
前記パンチルトズーム対応の撮像装置の前記モーター制御部は前記要求に基づいて人流ベクトルの方向に画角を合わせ、
前記魚眼撮像装置の前記画角制御部は前記要求に基づいて撮像映像の展開画角を、通常運用時は平面に展開し、人流検知の発生頻度の高い時間帯および場所においては立面に展開する監視システム。
In claim 3,
The imaging device is a pan-tilt-zoom compatible imaging device and a fish-eye imaging device,
Based on the request, the motor control unit of the pan / tilt / zoom compatible imaging apparatus adjusts the angle of view in the direction of the human flow vector,
Based on the request, the angle-of-view control unit of the fish-eye imaging device develops a developed view angle of a captured image on a flat surface during normal operation, and is elevated in time zones and places where human flow detection occurs frequently. The monitoring system to deploy.
JP2016251098A 2016-12-26 2016-12-26 Monitoring system Pending JP2018107587A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016251098A JP2018107587A (en) 2016-12-26 2016-12-26 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251098A JP2018107587A (en) 2016-12-26 2016-12-26 Monitoring system

Publications (1)

Publication Number Publication Date
JP2018107587A true JP2018107587A (en) 2018-07-05

Family

ID=62787535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251098A Pending JP2018107587A (en) 2016-12-26 2016-12-26 Monitoring system

Country Status (1)

Country Link
JP (1) JP2018107587A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602458A (en) * 2019-09-20 2019-12-20 重庆紫光华山智安科技有限公司 Image forwarding method and related device
CN114566023A (en) * 2022-02-28 2022-05-31 广西中科云创智能科技有限公司 Emergency alarm system for school
WO2022259541A1 (en) * 2021-06-11 2022-12-15 日本電気株式会社 Monitoring system, video quality setting method, crowd behavior analysis server, and computer-readable non-transitory recording medium for storing crowd behavior analysis program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101994A (en) * 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2005117542A (en) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc Monitoring system
JP2005123750A (en) * 2003-10-14 2005-05-12 Tsukuba Multimedia:Kk Video-map interlocking system and interlocking method thereof
JP2005176164A (en) * 2003-12-15 2005-06-30 Hitachi Kokusai Electric Inc Video accumulation and distribution apparatus and video distribution system
JP2011077617A (en) * 2009-09-29 2011-04-14 Saxa Inc Moving body imaging apparatus
JP2012520650A (en) * 2009-05-29 2012-09-06 ヨングク エレクトロニクス シーオー., エルティーディー Intelligent surveillance camera device and video surveillance system employing the same
JP2016100696A (en) * 2014-11-19 2016-05-30 キヤノン株式会社 Image processing device, image processing method, and image processing system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101994A (en) * 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2005117542A (en) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc Monitoring system
JP2005123750A (en) * 2003-10-14 2005-05-12 Tsukuba Multimedia:Kk Video-map interlocking system and interlocking method thereof
JP2005176164A (en) * 2003-12-15 2005-06-30 Hitachi Kokusai Electric Inc Video accumulation and distribution apparatus and video distribution system
JP2012520650A (en) * 2009-05-29 2012-09-06 ヨングク エレクトロニクス シーオー., エルティーディー Intelligent surveillance camera device and video surveillance system employing the same
JP2011077617A (en) * 2009-09-29 2011-04-14 Saxa Inc Moving body imaging apparatus
JP2016100696A (en) * 2014-11-19 2016-05-30 キヤノン株式会社 Image processing device, image processing method, and image processing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110602458A (en) * 2019-09-20 2019-12-20 重庆紫光华山智安科技有限公司 Image forwarding method and related device
WO2022259541A1 (en) * 2021-06-11 2022-12-15 日本電気株式会社 Monitoring system, video quality setting method, crowd behavior analysis server, and computer-readable non-transitory recording medium for storing crowd behavior analysis program
CN114566023A (en) * 2022-02-28 2022-05-31 广西中科云创智能科技有限公司 Emergency alarm system for school
CN114566023B (en) * 2022-02-28 2023-11-10 广西中科云创智能科技有限公司 Sudden event alarm system for schools

Similar Documents

Publication Publication Date Title
CN109104561B (en) System and method for tracking moving objects in a scene
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
US9509900B2 (en) Camera control method, and camera control device for same
TWI435279B (en) Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
JP6786378B2 (en) Information processing equipment, information processing methods and programs
JP4790613B2 (en) Camera control device and zoom magnification control method in this device
JP7036493B2 (en) Monitoring method and equipment
US20170278367A1 (en) System and method for overlap detection in surveillance camera network
US10200631B2 (en) Method for configuring a camera
JPWO2008035745A1 (en) Surveillance system, camera, and video encoding method
JP7067604B2 (en) Event monitoring system, event monitoring method, and program
CN110324572B (en) Monitoring system, monitoring method, and non-transitory computer-readable storage medium
KR20130130544A (en) Method and system for presenting security image
JP2018107587A (en) Monitoring system
JP2010220189A (en) Image capturing apparatus and moving image distribution system
JP5608490B2 (en) Image network system, image transmission system, and image acquisition system
KR20140058192A (en) Control image relocation method and apparatus according to the direction of movement of the object of interest
KR20150019230A (en) Method and apparatus for tracking object using multiple camera
JP2012119971A (en) Monitoring video display unit
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
JP6483326B2 (en) Monitoring system and terminal device
JP2019153986A (en) Monitoring system, management apparatus, monitoring method, computer program, and storage medium
JP2018170574A (en) Monitoring system
JP2018174468A (en) Video display unit, and control method, and program therefor
KR102148749B1 (en) Video surveillance network system and video surveillance method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210413