JP5821189B2 - Motion detection device and motion detection program - Google Patents

Motion detection device and motion detection program Download PDF

Info

Publication number
JP5821189B2
JP5821189B2 JP2010290955A JP2010290955A JP5821189B2 JP 5821189 B2 JP5821189 B2 JP 5821189B2 JP 2010290955 A JP2010290955 A JP 2010290955A JP 2010290955 A JP2010290955 A JP 2010290955A JP 5821189 B2 JP5821189 B2 JP 5821189B2
Authority
JP
Japan
Prior art keywords
moving object
camera
object detection
range
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010290955A
Other languages
Japanese (ja)
Other versions
JP2012138836A (en
Inventor
康幸 武富
康幸 武富
早川 誠
誠 早川
利匡 森西
利匡 森西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010290955A priority Critical patent/JP5821189B2/en
Publication of JP2012138836A publication Critical patent/JP2012138836A/en
Application granted granted Critical
Publication of JP5821189B2 publication Critical patent/JP5821189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は画像から動体を検知する動体検知装置及び動体検知プログラムに関する。   The present invention relates to a moving object detection apparatus and a moving object detection program for detecting a moving object from an image.

近年、気象状況の変化は、ゲリラ豪雨等の発生など、局所的に河川が増水する現象を頻発させている。国土交通省は、ゲリラ豪雨時等の河川増水時に、河川の親水施設にいる人物に対して、避難指示を出す必要がある。親水施設とは、河川に設置された休憩施設、水遊び場、遊歩道等の施設をいう。   In recent years, changes in weather conditions have caused frequent occurrences of rivers locally, such as guerrilla heavy rain. The Ministry of Land, Infrastructure, Transport and Tourism needs to give evacuation instructions to persons in the river's water facilities when the rivers are flooded during guerrilla heavy rain. Hydrophilic facilities are facilities such as rest facilities, water playgrounds, and promenades installed in rivers.

そこで、国土交通省は河川沿いにCCTV(Closed Circuit Television)カメラを設置して、CCTVカメラでの河川現況把握を実施している。しかし、河川増水時等における迅速な判断・対応は困難な状況にある。迅速な判断・対応が困難な状況にある要因はCCTVカメラの台数が多く、且つ、人が可視的に判断を行う為、迅速な判断・対応が必要な対象箇所の絞り込みに例えば1時間などの時間を要することである。   Therefore, the Ministry of Land, Infrastructure, Transport and Tourism has installed CCTV (Closed Circuit Television) cameras along the rivers, and has been grasping the current state of the rivers using CCTV cameras. However, it is difficult to make a quick judgment and response when the river is flooded. Factors that make it difficult to make quick judgments and responses are the number of CCTV cameras, and because people make visual judgments, it is necessary to narrow down target areas that require quick judgments and responses. It takes time.

対象箇所の絞り込みは、例えば画像から人物を自動で検知することにより、時間を短縮できる。画像から歩行者や車両を認識する従来の画像処理としては、入力画像と背景画像とを比較し、輝度などの変化量の差分により歩行者や車両を認識する背景差分方式が従来から知られている(例えば特許文献1参照)。   The narrowing down of the target portion can be shortened by automatically detecting a person from the image, for example. As a conventional image processing for recognizing a pedestrian or a vehicle from an image, a background difference method has been conventionally known in which an input image is compared with a background image, and a pedestrian or a vehicle is recognized based on a difference in variation such as luminance. (For example, refer to Patent Document 1).

このように、背景差分方式により画像から人物を検知する場合は、入力画像全体で変化量の差分処理を行っていた。   As described above, when a person is detected from an image by the background difference method, the difference process of the amount of change is performed on the entire input image.

特開2002−190012号公報Japanese Patent Laid-Open No. 2002-190012

入力画像全体で変化量の差分処理を行う場合は、外乱(草木の揺れ等)を検知してしまうため、人物だけを特定して検知するとは限らない。なお、草木等のエリアにマスクをかける方法もあるが、そのエリアに人物がいないとは限らない。結果として、従来は全てのCCTVカメラの画像を人が可視的に判断する必要があり、親水施設に人物がいるかを特定するまでに時間が掛かるという問題があった。   When the difference processing of the amount of change is performed on the entire input image, disturbance (such as shaking of a plant) is detected, so that only a person is not necessarily specified and detected. Although there is a method of applying a mask to an area such as vegetation, there is no guarantee that there is no person in that area. As a result, conventionally, it has been necessary for a person to visually determine all CCTV camera images, and there is a problem that it takes time to specify whether there is a person in a hydrophilic facility.

本実施形態は画像から迅速に動体を検知できる動体検知装置及び動体検知プログラムを提供することを目的とする。   An object of the present embodiment is to provide a moving object detection apparatus and a moving object detection program that can quickly detect a moving object from an image.

上記した課題を解決するため、本実施形態は、画像から動体を検知する動体検知装置であって、センシングデータに基づく危険状態の検出に応じて、カメラ制御実績をカメラ毎に記憶する第1記憶部を参照して、対象カメラ毎にそれぞれのカメラ制御実績が示す最大の撮影頻度に対応する画角への画角の設定指示を行って各カメラに撮影させる手段と、動体検知実績をカメラ毎に画角に応じて記憶する第2記憶部を参照して、前記対象カメラ毎に、設定指示した画角に対応する動体検知実績が示す最も高い頻度で動体を検知した範囲を優先的に動体検知対象範囲にする手段とを有する。 In order to solve the above-described problem, the present embodiment is a moving object detection device that detects a moving object from an image , and stores a camera control result for each camera in response to detection of a dangerous state based on sensing data. Section for each target camera, instructing each camera to take an angle of view setting instruction to the angle of view corresponding to the maximum shooting frequency indicated by each camera control record, and the moving object detection record for each camera. by reference to a second storage unit for storing in response to the angle of view in the each target camera, preferentially moving object range of detecting a moving object most frequently indicated motion detection results corresponding to the field angle set instruction and means for the detection target range.

なお、本実施形態の構成要素、表現又は構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。   In addition, what applied the arbitrary combination of the component of this embodiment, expression, or a component to a method, an apparatus, a system, a computer program, a recording medium, a data structure, etc. is also effective as an aspect of this invention.

本実施形態によれば画像から迅速に動体を検知できる動体検知装置及び動体検知プログラムを提供可能である。   According to the present embodiment, it is possible to provide a moving object detection device and a moving object detection program that can quickly detect a moving object from an image.

本実施例の動体検知装置を含むシステムの一例の構成図である。It is a block diagram of an example of the system containing the moving body detection apparatus of a present Example. 雨量局関係のDBの一例の構成図である。It is a block diagram of an example of DB related to rainfall station. 水位局関係のDBの一例の構成図である。It is a block diagram of an example of DB related to a water level station. カメラ局関係のDBの一例の構成図である。It is a block diagram of an example of DB related to a camera station. カメラ監視サーバの処理手順を表した一例のフローチャートである。It is a flowchart of an example showing the process sequence of the camera monitoring server. データ集約サーバ及び画像処理サーバの処理手順を表した一例のフローチャートである。It is a flowchart of an example showing the processing procedure of the data aggregation server and the image processing server. カメラ局PTZ情報DBの一例の構成図である。It is a block diagram of an example of camera station PTZ information DB. 抽出カメラ局DBの一例の構成図である。It is a block diagram of an example of extraction camera station DB. カメラ局処理範囲DBの一例の構成図である。It is a block diagram of an example of camera station processing range DB. カメラ局検知ポイントDBの一例の構成図である。It is a block diagram of an example of camera station detection point DB. 画角情報(X座標、Y座標、ズーム値)で特定される画角の一例のイメージ図である。It is an image figure of an example of the view angle specified by view angle information (X coordinate, Y coordinate, zoom value). 処理範囲基準点(X座標、Y座標)、処理範囲(X値、Y値)で特定される処理範囲の一例のイメージ図である。It is an image figure of an example of the processing range specified by the processing range reference point (X coordinate, Y coordinate) and the processing range (X value, Y value). 一つの画角に複数の検知ポイントが含まれる一例のイメージ図である。It is an image figure of an example in which several detection points are contained in one view angle. 初回のカメラ画角特定処理の一例のフローチャートである。It is a flowchart of an example of the first camera view angle specific process. 2回目以降のカメラ画角特定処理の一例のフローチャートである。It is a flowchart of an example of a camera view angle specific process after the second time. 画像処理の一例のフローチャートである。It is a flowchart of an example of an image process. 検知データ更新・分析処理の一例のフローチャートである。It is a flowchart of an example of a detection data update / analysis process. 検知実績なしの範囲指定処理の一例のイメージ図である。It is an image figure of an example of the range designation | designated process without a detection performance. 検知実績ありの範囲指定処理の一例のイメージ図である。It is an image figure of an example of the range designation | designated process with a detection performance. 検知ポイント分析処理の一例のイメージ図である。It is an image figure of an example of a detection point analysis process. 管理コンテンツに表示される画面の一例のイメージ図である。It is an image figure of an example of the screen displayed on management content. PCの一例のハードウェア構成図である。It is a hardware block diagram of an example of PC.

次に、本発明を実施するための形態を、以下の実施例に基づき図面を参照しつつ説明していく。本実施例では人物を動体の一例として説明する。   Next, modes for carrying out the present invention will be described based on the following embodiments with reference to the drawings. In this embodiment, a person will be described as an example of a moving object.

図1は本実施例の動体検知装置を含むシステムの一例の構成図である。図1のシステムはセンサ設備1、CCTVカメラ設備2、河川管理者設備3を含む。センサ設備1及びCCTVカメラ設備2は現場設備である。   FIG. 1 is a configuration diagram of an example of a system including the moving object detection device of the present embodiment. The system of FIG. 1 includes a sensor facility 1, a CCTV camera facility 2, and a river manager facility 3. The sensor facility 1 and the CCTV camera facility 2 are field facilities.

センサ設備1は例えば現場に設置されている雨量計11、水位計12、洪水センサ13及びIPノード14を含む。雨量計11、水位計12、洪水センサ13が観測するセンサ情報はテレメータでIPノード14に収集される。IPノード14はセンサ情報を集約してIPネットワーク4経由で河川管理者設備3へ伝送する。   The sensor facility 1 includes, for example, a rain gauge 11, a water level gauge 12, a flood sensor 13, and an IP node 14 installed at the site. Sensor information observed by the rain gauge 11, the water level gauge 12, and the flood sensor 13 is collected by the IP node 14 by a telemeter. The IP node 14 collects the sensor information and transmits it to the river manager facility 3 via the IP network 4.

CCTVカメラ設備2は例えば現場に設置されているCCTVカメラ21、エンコーダ装置22、IPノード23を含む。例えばCCTVカメラ21は監視カメラとして国土交通省が管理する1級河川を中心に10,000台以上が設置されている。CCTVカメラ21が撮影した画像はエンコーダ装置22でエンコードされる。IPノード23はCCTVカメラ21のストリームを集約してIPネットワーク4経由で河川管理者設備3へ伝送する。   The CCTV camera facility 2 includes, for example, a CCTV camera 21, an encoder device 22, and an IP node 23 installed on the site. For example, more than 10,000 CCTV cameras 21 are installed around a first-class river managed by the Ministry of Land, Infrastructure, Transport and Tourism as a monitoring camera. An image captured by the CCTV camera 21 is encoded by the encoder device 22. The IP node 23 aggregates the streams of the CCTV camera 21 and transmits them to the river manager facility 3 via the IP network 4.

河川管理者設備3は例えば河川データサーバ31、カメラ監視サーバ32、データ集約サーバ33、動体検知装置の一例としての画像処理サーバ34、河川管理者が操作するPC35、デコーダ装置36、TV37を含む。   The river manager facility 3 includes, for example, a river data server 31, a camera monitoring server 32, a data aggregation server 33, an image processing server 34 as an example of a moving body detection device, a PC 35 operated by the river manager, a decoder device 36, and a TV 37.

河川データサーバ31は現場で観測している水位情報、雨量情報等を管理する。カメラ監視サーバ32は現場のCCTVカメラ21の制御を行う。また、カメラ監視サーバ32はCCTVカメラ21の画角を制御したPTZ情報などのカメラ情報を管理する。PTZ情報とは、P(パン):X座標、T(チルト):Y座標、Z(ズーム):ズーム値を含む情報である。   The river data server 31 manages water level information, rainfall information, and the like observed at the site. The camera monitoring server 32 controls the CCTV camera 21 at the site. The camera monitoring server 32 manages camera information such as PTZ information that controls the angle of view of the CCTV camera 21. The PTZ information is information including P (pan): X coordinate, T (tilt): Y coordinate, and Z (zoom): zoom value.

データ集約サーバ33は後述の現場データ収集処理、トリガ判定処理、エリア限定処理及び監視コンテンツへの表示処理を行う。データ集約サーバ33は後述のカメラ局PTZ情報データベース(DB)38を含む。   The data aggregation server 33 performs field data collection processing, trigger determination processing, area limitation processing, and display processing for monitoring content, which will be described later. The data aggregation server 33 includes a camera station PTZ information database (DB) 38 to be described later.

画像処理サーバ34は後述のカメラ画角特定処理、画像処理、検知データ更新・分析処理を行う。画像処理サーバ34は後述のカメラ局処理範囲DB39、カメラ局検知ポイントDB40を含む。画像処理サーバ34はCCTVカメラ21が撮影した画像を入力画像とし、画像処理し、河川の親水施設にいる人物の検知を行う。   The image processing server 34 performs camera angle-of-view specifying processing, image processing, and detection data update / analysis processing described later. The image processing server 34 includes a camera station processing range DB 39 and a camera station detection point DB 40 described later. The image processing server 34 uses the image taken by the CCTV camera 21 as an input image, performs image processing, and detects a person in a waterfront facility in the river.

PC35は画像処理サーバ34による処理結果を表示する。また、TV37はデコーダ装置36によりデコードされた画像処理サーバ34による処理結果を表示する。河川管理者はPC35、TV37に表示された画像処理サーバ34による処理結果を閲覧することで迅速な判断・対応が必要な対象箇所である人物検知箇所を迅速に判断できる。PC35及びTV37は、画像処理サーバ34による処理結果を表示する監視コンテンツの一例である。PC35とTV37とは連携して処理するようにしてもよい。また、図1のシステムはデータ集約サーバ33を省略して、画像処理サーバ34にデータ集約サーバ33の機能を設けるようにしてもよい。   The PC 35 displays the processing result by the image processing server 34. Further, the TV 37 displays the processing result by the image processing server 34 decoded by the decoder device 36. The river manager can quickly determine the person detection location that is a target location that needs to be promptly determined and dealt with by viewing the processing result by the image processing server 34 displayed on the PC 35 and the TV 37. The PC 35 and the TV 37 are an example of monitoring content that displays the processing result by the image processing server 34. The PC 35 and the TV 37 may be processed in cooperation. 1 may omit the data aggregation server 33 and provide the image processing server 34 with the function of the data aggregation server 33.

図2は雨量局関係のDBの一例の構成図である。図2(A)は雨量局DBの一例の構成図である。図2(B)は雨量局観測DBの一例の構成図である。雨量局DBはデータ項目として観測局名、緯度、経度、閾値を有する。雨量局観測DBはデータ項目としてデータ受信日時、雨量局所在地(緯度、経度)、雨量データを有する。雨量局観測DBは雨量局毎に設けられる。図2(B)はA雨量局の例を表している。図2に示す雨量局関係のDBは河川データサーバ31が格納している。河川データサーバ31は現場の雨量計11で観測した雨量データを図2(B)のように管理している。   FIG. 2 is a configuration diagram of an example of a DB related to the rainfall station. FIG. 2A is a configuration diagram of an example of the rainfall station DB. FIG. 2B is a configuration diagram of an example of the rainfall station observation DB. The rainfall station DB has the observation station name, latitude, longitude, and threshold as data items. The rainfall station observation DB has data reception date, rainfall station location (latitude, longitude), and rainfall data as data items. The rainfall station observation DB is provided for each rainfall station. FIG. 2B shows an example of the A rainfall station. The river data server 31 stores the rain station-related DB shown in FIG. The river data server 31 manages the rainfall data observed by the rain gauge 11 at the site as shown in FIG.

図3は水位局関係のDBの一例の構成図である。図3(A)は水位局DBの一例の構成図である。図3(B)は水位局観測DBの一例の構成図である。水位局DBはデータ項目として観測局名、緯度、経度、閾値を有する。水位局観測DBはデータ項目としてデータ受信日時、水位局所在地(緯度、経度)、水位データを有する。水位局観測DBは水位局毎に設けられる。図3(B)はA水位局の例を表している。図3に示す水位局関係のDBは河川データサーバ31が格納している。河川データサーバ31は現場の水位計12で観測した水位データを図3(B)のように管理している。   FIG. 3 is a configuration diagram of an example of a DB related to a water level station. FIG. 3A is a configuration diagram of an example of the water level station DB. FIG. 3B is a configuration diagram of an example of the water level station observation DB. The water level station DB has observation station name, latitude, longitude, and threshold as data items. The water level station observation DB has data reception date and time, water level station location (latitude, longitude), and water level data as data items. The water level station observation DB is provided for each water level station. FIG. 3B shows an example of the A water level station. The river data server 31 stores the DB related to the water level station shown in FIG. The river data server 31 manages the water level data observed by the on-site water level gauge 12 as shown in FIG.

図4はカメラ局関係のDBの一例の構成図である。図4(A)はカメラ局DBの一例の構成図である。図4(B)はカメラ局プリセット情報DBの一例の構成図である。カメラ局DBはデータ項目としてカメラID、カメラ名称、カメラ局所在地(緯度、経度)、映像マルチキャストアドレスを有する。カメラ局プリセット情報DBはデータ項目としてカメラID、カメラ名称、カメラ局所在地(緯度、経度)、プリセットID、制御情報(X座標、Y座標、ズーム値)、映像マルチキャストアドレスを有する。カメラ局プリセット情報DBはカメラ局毎に設けられる。図4に示すカメラ局関係のDBはカメラ監視サーバ32が格納している。   FIG. 4 is a configuration diagram of an example of a DB related to the camera station. FIG. 4A is a configuration diagram of an example of the camera station DB. FIG. 4B is a configuration diagram of an example of the camera station preset information DB. The camera station DB has a camera ID, a camera name, a camera station location (latitude, longitude), and a video multicast address as data items. The camera station preset information DB includes data items such as camera ID, camera name, camera station location (latitude, longitude), preset ID, control information (X coordinate, Y coordinate, zoom value), and video multicast address. The camera station preset information DB is provided for each camera station. The camera monitoring server 32 stores the DB related to the camera station shown in FIG.

図5はカメラ監視サーバの処理手順を表した一例のフローチャートである。カメラ監視サーバ32はステップS1においてカメラ制御処理を行う。カメラ制御処理はカメラ監視サーバ32が現場のCCTVカメラ21を制御する処理である。カメラ監視サーバ32は現場のCCTVカメラ21に対してPTZ情報を含むコマンドを送信することでCCTVカメラ21を河川管理者の見たい対象の画角へ制御できる。ステップS2において、カメラ監視サーバ32はCCTVカメラ21の画角を制御したPTZ情報をデータ集約サーバ33に送信する。   FIG. 5 is a flowchart illustrating an example of the processing procedure of the camera monitoring server. The camera monitoring server 32 performs camera control processing in step S1. The camera control process is a process in which the camera monitoring server 32 controls the CCTV camera 21 in the field. The camera monitoring server 32 can control the CCTV camera 21 to an angle of view desired by the river manager by transmitting a command including PTZ information to the CCTV camera 21 in the field. In step S <b> 2, the camera monitoring server 32 transmits PTZ information in which the angle of view of the CCTV camera 21 is controlled to the data aggregation server 33.

図6はデータ集約サーバ及び画像処理サーバの処理手順を表した一例のフローチャートである。ステップS11において、データ集約サーバ33は河川データサーバ31から図2に示した雨量局関係のDB及び図3に示した水位局関係のDBにより管理している情報を収集する。データ集約サーバ33はカメラ監視サーバ32から図4に示したカメラ局関係のDBにより管理している情報を収集する。また、データ集約サーバ33は、カメラ監視サーバ32からPTZ情報を受信し、カメラ局毎にカメラ局PTZ情報DB38へ格納する。   FIG. 6 is a flowchart illustrating an example of processing procedures of the data aggregation server and the image processing server. In step S11, the data aggregation server 33 collects the information managed by the rainfall station related DB shown in FIG. 2 and the water level station related DB shown in FIG. The data aggregation server 33 collects information managed by the camera station-related DB shown in FIG. Further, the data aggregation server 33 receives the PTZ information from the camera monitoring server 32 and stores it in the camera station PTZ information DB 38 for each camera station.

ステップS12において、データ集約サーバ33は収集した現場データを用いてトリガ判定処理を行う。トリガ判定処理とは、収集した現場データを用いて危険な雨量局・水位局の有無を判定し、危険な雨量局・水位局があれば、危険な雨量局・水位局のリストを作成する処理である。   In step S12, the data aggregation server 33 performs a trigger determination process using the collected field data. The trigger determination process is a process that uses the collected field data to determine the presence of dangerous rainfall stations and water level stations, and if there are dangerous rainfall stations and water level stations, creates a list of dangerous rainfall stations and water level stations. It is.

データ集約サーバ33は例えばゲリラ豪雨・台風・大雨時等に、雨量データが閾値を超えている雨量局又は水位データが閾値を超えている水位局があれば、危険な雨量局・水位局と判定する。データ集約サーバ33は危険な雨量局・水位局のリストを作成する。   For example, when there is a rainfall station whose rainfall data exceeds the threshold or a water level station whose water level data exceeds the threshold during guerrilla heavy rain, typhoon, heavy rain, etc., the data aggregation server 33 determines that it is a dangerous rainfall station / water level station. To do. The data aggregation server 33 creates a list of dangerous rainfall stations and water level stations.

ステップS13において、データ集約サーバ33は危険な雨量局・水位局のリストを用いてエリア限定処理を行う。エリア限定処理とは、危険な雨量局・水位局のリストに計上されている雨量局・水位局の近傍・関連のあるカメラ局を絞り込んで後述の抽出カメラ局DBを作成する処理である。   In step S13, the data aggregation server 33 performs area limitation processing using a list of dangerous rainfall stations and water level stations. The area limitation process is a process of creating an extracted camera station DB (to be described later) by narrowing down the rain station / water level station nearby / related camera stations included in the list of dangerous rainfall stations / water level stations.

データ集約サーバ33は危険な雨量局・水位局のリストに計上されている雨量局・水位局の近傍のカメラ局を緯度・経度情報をキーとして絞り込む。また、データ集約サーバ33は絞り込んだカメラ局と関連性のある(影響のある)カメラ局を絞りこむ。データ集約サーバ33は絞り込んだカメラ局で、画像処理サーバ34による処理の対象となるカメラ局のリストである後述の抽出カメラ局DBを作成する。例えばデータ集約サーバ33は上流側のカメラ局が危険な雨量局・水位局のリストに計上されている場合、下流の親水施設付近のカメラ局を絞りこむ。データ集約サーバ33は画像処理サーバ34による処理の対象となるカメラ局のリストを画像処理サーバ34へ通知する。   The data aggregating server 33 narrows down the camera stations in the vicinity of the rainfall stations / water level stations recorded in the list of dangerous rainfall stations / water level stations using the latitude / longitude information as a key. In addition, the data aggregation server 33 narrows down the camera stations that are related (influential) to the narrowed-down camera stations. The data aggregation server 33 is a narrowed-down camera station, and creates an extracted camera station DB, which will be described later, which is a list of camera stations to be processed by the image processing server 34. For example, when the upstream camera station is included in the list of dangerous rainfall stations / water level stations, the data aggregation server 33 narrows down the camera stations near the downstream hydrophilic facility. The data aggregation server 33 notifies the image processing server 34 of a list of camera stations to be processed by the image processing server 34.

ステップS14において、画像処理サーバ34はカメラ画角特定処理を行う。カメラ画角特定処理とは、処理の対象となるカメラ局について、カメラ操作の最も多かった地点を中心とした画角へプリセット制御する処理である。   In step S14, the image processing server 34 performs camera angle-of-view specifying processing. The camera angle-of-view specifying process is a process for preset-controlling a camera station to be processed to an angle of view centered on a point where the camera operation is the most.

画像処理サーバ34はデータ集約サーバ33から通知された処理の対象となるカメラ局のリストを元に、処理の対象となるカメラ局を順次選択する。画像処理サーバ34は選択したカメラ局について、カメラ操作の最も多かった地点を中心とした画角へプリセット制御する処理をカメラ監視サーバ32に要求する。なお、カメラ操作の最も多かった地点を中心とした画角へのプリセット制御は、後述のカメラ局PTZ情報DB38を利用することで実現できる。カメラ監視サーバ32は画像処理サーバ34から要求のあった画角へカメラ局をプリセット制御する処理を実行する。   The image processing server 34 sequentially selects camera stations to be processed based on the list of camera stations to be processed notified from the data aggregation server 33. The image processing server 34 requests the camera monitoring server 32 to perform preset control on the selected camera station to the angle of view centered on the point where the camera operation is the largest. Note that the preset control to the angle of view centered on the point where the camera operation is the most can be realized by using a camera station PTZ information DB 38 described later. The camera monitoring server 32 executes processing for preset control of the camera station to the angle of view requested from the image processing server 34.

プリセット制御の指定はプリセットIDを利用して行われる。カメラ監視サーバ32は図4(B)のカメラ局プリセット情報DBのプリセットIDに対応付けられた制御情報を利用して、プリセット制御する処理を実行する。プリセット制御されたカメラ局からは撮影した画像が送信される。   The preset control is designated using a preset ID. The camera monitoring server 32 executes processing for preset control using control information associated with the preset ID of the camera station preset information DB in FIG. The captured image is transmitted from the preset-controlled camera station.

ステップS15において、画像処理サーバ34はプリセット制御されたカメラ局から受信した画像について画像処理を行う。画像処理サーバ34はカメラ画角特定処理により設定されたプリセットポジション(画角)において撮影された画像について画像処理を行うことで人物の検知を行う。   In step S15, the image processing server 34 performs image processing on the image received from the preset-controlled camera station. The image processing server 34 detects a person by performing image processing on an image taken at a preset position (view angle) set by the camera view angle specifying process.

画像処理サーバ34は人物の検知実績がない場合、カメラ操作の最も多かった地点(X座標、Y座標)を含むブロックの画像処理を実行する。画像処理サーバ34はブロックを最初の処理範囲とし、例えば処理範囲を放射状に拡大していく。画像処理サーバ34は人物の検知実績がある場合、最も検知実績の多かった処理範囲から画像処理を行う。画像処理サーバ34は処理範囲を放射上に拡大していく。ステップS14、S15の処理は処理の対象となるカメラ局のリストに計上されているカメラ局の数、繰り返される。   When there is no person detection record, the image processing server 34 executes image processing of a block including a point (X coordinate, Y coordinate) with the largest number of camera operations. The image processing server 34 sets the block as the first processing range, and expands the processing range radially, for example. When there is a person detection record, the image processing server 34 performs image processing from the processing range with the highest detection record. The image processing server 34 expands the processing range radially. The processes in steps S14 and S15 are repeated for the number of camera stations included in the list of camera stations to be processed.

ステップS16において、画像処理サーバ34は検知データ更新・分析処理を行う。画像処理サーバ34はステップS15の画像処理結果を後述のカメラ局検知ポイントDB40に蓄積する。例えば画像処理サーバ34はカメラ局検知ポイントDB40に各々のカメラ局の画角毎に検知ポイントを蓄積する。画像処理サーバ34は蓄積されたカメラ局検知ポイントDB40を元に各々のカメラ局の画角毎に処理範囲を分析し、後述のカメラ局処理範囲DB39を更新する。   In step S16, the image processing server 34 performs detection data update / analysis processing. The image processing server 34 stores the image processing result of step S15 in a camera station detection point DB 40 described later. For example, the image processing server 34 accumulates detection points for each angle of view of each camera station in the camera station detection point DB 40. The image processing server 34 analyzes the processing range for each angle of view of each camera station based on the accumulated camera station detection point DB 40, and updates a later-described camera station processing range DB 39.

ステップS17において、画像処理サーバ34は画像処理結果を管理コンテンツの一例であるPC35及びTV37に表示させる。したがって、河川管理者はPC35及びTV37に表示された画像処理結果を確認できる。   In step S <b> 17, the image processing server 34 displays the image processing result on the PC 35 and the TV 37 which are examples of management content. Therefore, the river manager can confirm the image processing result displayed on the PC 35 and the TV 37.

図7はカメラ局PTZ情報DBの一例の構成図である。カメラ局PTZ情報DB38はデータ項目としてデータ受信日時、カメラID、カメラ名称、カメラ局所在地(緯度、経度)、プリセットID、制御情報(X座標、Y座標、ズーム値)、映像マルチキャストアドレスを有する。カメラ局PTZ情報DB38はカメラ監視サーバ32から受信したPTZ情報を制御情報として、データ受信日時と共に格納している。   FIG. 7 is a configuration diagram of an example of the camera station PTZ information DB. The camera station PTZ information DB 38 has data reception date, camera ID, camera name, camera station location (latitude, longitude), preset ID, control information (X coordinate, Y coordinate, zoom value), and video multicast address as data items. The camera station PTZ information DB 38 stores the PTZ information received from the camera monitoring server 32 as control information together with the data reception date and time.

図8は抽出カメラ局DBの一例の構成図である。抽出カメラ局DBはデータ項目としてカメラID、カメラ名称、カメラ局所在地(緯度、経度)、映像マルチキャストアドレスを有する。抽出カメラ局DBは図4(A)のカメラ局DBから、危険な雨量局・水位局のリストに計上されている雨量局・水位局の近傍又は関連性のあるカメラ局を緯度・経度情報をキーとして絞り込んだものである。   FIG. 8 is a configuration diagram of an example of the extracted camera station DB. The extracted camera station DB has data items such as camera ID, camera name, camera station location (latitude, longitude), and video multicast address. The extracted camera station DB obtains the latitude / longitude information from the camera station DB of FIG. 4 (A), the latitude / longitude information of the rain station / water level station near or related to the rain station / water level station list. It is narrowed down as a key.

図9は、カメラ局処理範囲DBの一例の構成図である。図9のカメラ局処理範囲DB39はデータ項目としてカメラID、カメラ名称、カメラ局所在地(緯度、経度)、画角情報(X座標、Y座標、ズーム値)、処理範囲基準点(X座標、Y座標)、処理範囲(X値、Y値)、映像マルチキャストアドレスを有する。   FIG. 9 is a configuration diagram of an example of the camera station processing range DB. The camera station processing range DB 39 in FIG. 9 includes data items such as camera ID, camera name, camera station location (latitude, longitude), angle of view information (X coordinate, Y coordinate, zoom value), and processing range reference point (X coordinate, Y Coordinate), processing range (X value, Y value), and video multicast address.

図10は、カメラ局検知ポイントDBの一例の構成図である。図10のカメラ局検知ポイントDB40はデータ項目としてデータ受信日時、カメラ局所在地(緯度、経度)、画角情報(X座標、Y座標、ズーム値)、複数の検知ポイント(処理範囲基準点のX座標及びY座標、処理範囲のX値及びY値)を有する。   FIG. 10 is a configuration diagram of an example of the camera station detection point DB. 10 includes data reception date and time, camera station location (latitude, longitude), field angle information (X coordinate, Y coordinate, zoom value), and a plurality of detection points (X of the processing range reference point). Coordinate and Y coordinate, and X value and Y value of the processing range).

図11は画角情報(X座標、Y座標、ズーム値)で特定される画角の一例のイメージ図である。画角情報(X座標、Y座標)はカメラ操作で最も選択されることが多かったポジション(地点)51を表している。画角情報(ズーム値)は画角54の幅52、高さ53を表している。   FIG. 11 is an image diagram of an example of the angle of view specified by the angle of view information (X coordinate, Y coordinate, zoom value). The angle-of-view information (X coordinate, Y coordinate) represents a position (point) 51 that was most often selected by camera operation. The angle of view information (zoom value) represents the width 52 and the height 53 of the angle of view 54.

図12は処理範囲基準点(X座標、Y座標)、処理範囲(X値、Y値)で特定される処理範囲の一例のイメージ図である。図12に示すように、処理範囲基準点(X座標、Y座標)は処理範囲64の処理範囲基準点61を表している。処理範囲(X値、Y値)は処理範囲64の幅62、高さ63を表している。図10のカメラ局検知ポイントDB40では検知ポイントを図12に示すような処理範囲基準点61、処理範囲64の幅62、高さ63で表している。   FIG. 12 is an image diagram of an example of the processing range specified by the processing range reference point (X coordinate, Y coordinate) and the processing range (X value, Y value). As shown in FIG. 12, the processing range reference point (X coordinate, Y coordinate) represents the processing range reference point 61 of the processing range 64. The processing range (X value, Y value) represents the width 62 and height 63 of the processing range 64. In the camera station detection point DB 40 of FIG. 10, the detection points are represented by a processing range reference point 61 and a width 62 and a height 63 of the processing range 64 as shown in FIG.

図13は一つの画角に複数の検知ポイントが含まれる一例のイメージ図である。図13に示すように1つの画角71に複数の検知ポイント72、73が含まれる場合は検知ポイント72、73ごとに、処理範囲基準点(X座標、Y座標)と処理範囲(X値、Y値)とが設定される。   FIG. 13 is an image diagram of an example in which a plurality of detection points are included in one angle of view. As shown in FIG. 13, when a plurality of detection points 72 and 73 are included in one angle of view 71, a processing range reference point (X coordinate, Y coordinate) and a processing range (X value, Y value) is set.

図14は初回のカメラ画角特定処理の一例のフローチャートである。ステップS21において、画像処理サーバ34はカメラ特定処理を行う。カメラ特定処理はステップS13のエリア限定処理で作成された処理の対象となるカメラ局のリストから画像処理を実行するカメラ局を1つ特定する。   FIG. 14 is a flowchart of an example of the first camera angle-of-view specifying process. In step S21, the image processing server 34 performs a camera specifying process. In the camera specifying process, one camera station that executes image processing is specified from the list of camera stations to be processed in the area limiting process in step S13.

ステップS22において、画像処理サーバ34はステップS21で特定されたカメラ局について最多画角の特定処理を行う。最多画角の特定処理はカメラ局PTZ情報DB38を参照し、ステップS21で特定されたカメラ局において最も選択されることが多かったポジション(PTZ情報)を特定する。つまり、最多画角の特定処理はステップS21で特定されたカメラ局において最も選択されることが多かった画角を特定する。   In step S <b> 22, the image processing server 34 performs the most-view angle specifying process for the camera station specified in step S <b> 21. For the process of specifying the most angle of view, the camera station PTZ information DB 38 is referred to, and the position (PTZ information) most frequently selected in the camera station specified in step S21 is specified. That is, the most-view angle specifying process specifies the angle of view that was most frequently selected in the camera station specified in step S21.

ステップS23において、画像処理サーバ34はステップS21で特定されたカメラ局に対してカメラプリセット制御処理を行う。カメラプリセット制御処理は、ステップS22で特定した画角へプリセット制御する処理をカメラ監視サーバ32に要求する。   In step S23, the image processing server 34 performs camera preset control processing for the camera station specified in step S21. The camera preset control process requests the camera monitoring server 32 to perform preset control to the angle of view specified in step S22.

したがって、カメラ監視サーバ32は画像処理サーバ34から要求のあった画角へカメラ局をプリセット制御する処理を実行できる。プリセット制御されたカメラ局からは撮影した画像が送信される。   Therefore, the camera monitoring server 32 can execute processing for preset control of the camera station to the angle of view requested from the image processing server 34. The captured image is transmitted from the preset-controlled camera station.

ステップS22の最多画角の特定処理は以下の根拠に基づくものである。河川管理者が運用中にカメラ操作を行い、より多く監視している画角は、通常時の監視において重要となる画角である。同様に、増水時においても、いち早く確認すべき画角は最も多く監視している最多画角である。このように、カメラ操作により選択されることが最も多かった最多画角から画像処理を行うことは、河川管理者においても、増水時に迅速な初動対応が求められることから、プライオリティが高いと考えられる。   The most frequent angle-of-view specifying process in step S22 is based on the following grounds. The angle of view in which the river manager operates the camera during operation and monitors more is an angle of view that is important in normal monitoring. Similarly, even at the time of water increase, the angle of view to be confirmed first is the most frequently observed angle of view. In this way, it is considered that priority is given to performing image processing from the largest angle of view that was most often selected by camera operation, because even river managers are required to respond quickly to initial movements when water increases. .

図15は2回目以降のカメラ画角特定処理の一例のフローチャートである。ステップS24において、画像処理サーバ34はカメラ特定処理を行う。カメラ特定処理はステップS13のエリア限定処理で作成された処理の対象となるカメラ局のリストから画像処理を実行するカメラ局を1つ特定する。   FIG. 15 is a flowchart of an example of the camera angle-of-view specifying process after the second time. In step S24, the image processing server 34 performs a camera specifying process. In the camera specifying process, one camera station that executes image processing is specified from the list of camera stations to be processed in the area limiting process in step S13.

ステップS25において、画像処理サーバ34はステップS24で特定されたカメラ局について画角の特定処理を行う。2回目の画角の特定処理はカメラ局PTZ情報DB38を参照し、ステップS24で特定されたカメラ局において、2番目に選択されることが多かったポジション(PTZ情報)を特定する。つまり、n回目以降の画角の特定処理はカメラ局PTZ情報DB38を参照し、ステップS24で特定されたカメラ局においてn番目に選択されることが多かったポジション(PTZ情報)を特定する。   In step S25, the image processing server 34 performs an angle-of-view specifying process for the camera station specified in step S24. In the second view angle specifying process, the camera station PTZ information DB 38 is referred to, and the position (PTZ information) that was most often selected second in the camera station specified in step S24 is specified. In other words, the process for specifying the angle of view after the nth time refers to the camera station PTZ information DB 38 and specifies the position (PTZ information) that is frequently selected nth in the camera station specified in step S24.

ステップS26において、画像処理サーバ34はステップS24で特定されたカメラ局に対してカメラプリセット制御処理を行う。カメラプリセット制御処理は、ステップS25で特定した画角へプリセット制御する処理をカメラ監視サーバ32に要求する。   In step S26, the image processing server 34 performs camera preset control processing on the camera station specified in step S24. The camera preset control process requests the camera monitoring server 32 to perform preset control to the angle of view specified in step S25.

したがって、カメラ監視サーバ32は画像処理サーバ34から要求のあった画角へカメラ局をプリセット制御する処理を実行できる。プリセット制御されたカメラ局からは撮影した画像が送信される。   Therefore, the camera monitoring server 32 can execute processing for preset control of the camera station to the angle of view requested from the image processing server 34. The captured image is transmitted from the preset-controlled camera station.

最多画角のみの処理では1カメラ局毎に1ポジションでの処理となる。しかし、繰り返し行うカメラ画角特定処理では、1つのカメラ局に対して広域に画像処理を実行することが可能となる。したがって、繰り返し行うカメラ画角特定処理では河川親水施設における人物の検知を、より広範囲に行うことが可能となる。   In the processing with only the maximum angle of view, processing is performed at one position for each camera station. However, in the camera angle-of-view specifying process that is repeatedly performed, it is possible to execute image processing over a wide area with respect to one camera station. Therefore, it is possible to detect a person in the river water facility more extensively in the camera angle-of-view specifying process that is repeatedly performed.

図16は画像処理の一例のフローチャートである。ステップS31において、画像処理サーバ34は、プリセット制御されたカメラ局から受信した画像について背景撮影処理を行う。背景撮影処理は後述の背景差分処理を実行するため、プリセット制御されたカメラ局から受信した画像を背景画像として撮影する処理を実行する。   FIG. 16 is a flowchart of an example of image processing. In step S31, the image processing server 34 performs background photographing processing on the image received from the preset-controlled camera station. In order to perform background difference processing, which will be described later, the background photographing processing performs processing for photographing an image received from a preset-controlled camera station as a background image.

ステップS32において、画像処理サーバ34はカメラ局検知ポイントDB40の参照処理を行う。カメラ局検知ポイントDB40の参照処理は、背景差分処理を実行するカメラ局が過去に人物を検知した結果(人物の検知実績)の有無について、カメラ局検知ポイントDB40を参照する処理を実行する。カメラ局検知ポイントDB40は人物の検知実績を例えば夏季と冬季とで分けて蓄積しておいてもよい。   In step S32, the image processing server 34 performs a reference process of the camera station detection point DB 40. The reference process of the camera station detection point DB 40 executes a process of referring to the camera station detection point DB 40 for the presence / absence of a result (person detection result) of detecting a person in the past by the camera station executing the background difference process. The camera station detection point DB 40 may store human detection results separately in, for example, summer and winter.

ステップS33において、画像処理サーバ34は検知実績判定処理を行う。検知実績判定処理はステップS32のカメラ局検知ポイントDB40の参照結果を元に、検知実績の有無を判定する処理を実行する。   In step S33, the image processing server 34 performs detection result determination processing. The detection result determination process executes a process of determining the presence or absence of a detection result based on the reference result of the camera station detection point DB 40 in step S32.

検知実績がある場合、画像処理サーバ34はステップS34において、検知実績ありの範囲指定処理(放射状拡大処理)を行う。画像処理サーバ34は検知実績の多かった処理範囲で、画像処理を行う範囲を指定する処理を実行する。   If there is a detection record, the image processing server 34 performs a range specification process (radial enlargement process) with a detection record in step S34. The image processing server 34 executes processing for designating a range in which image processing is performed in a processing range having a high detection record.

画像処理サーバ34は検知実績のある処理範囲から画像処理を始めることで、人物を検知するまでの時間を短縮できる。画像処理サーバ34は後述の背景差分処理により人物を検知できなかった場合、例えば1ブロック単位で放射状に処理範囲を拡大していき、画像処理を行う範囲を指定する処理を実行する。   The image processing server 34 can shorten the time until the person is detected by starting the image processing from the processing range having the detection results. When the person cannot be detected by the background difference process described later, the image processing server 34 performs a process of expanding the processing range radially, for example, in units of one block, and designating a range for image processing.

検知実績がない場合、画像処理サーバ34はステップS35において、検知実績なしの範囲指定処理(放射状拡大処理)を行う。画像処理サーバ34はカメラ局PTZ情報DB38を参照する。画像処理サーバ34は、カメラ操作で最も選択されることが多かったポジション(X座標、Y座標)51が含まれる最小のブロックで、画像処理を行う範囲を指定する処理を実行する。   If there is no detection record, the image processing server 34 performs a range designation process (radial enlargement process) without a detection record in step S35. The image processing server 34 refers to the camera station PTZ information DB 38. The image processing server 34 executes processing for designating a range in which image processing is performed in the smallest block including the position (X coordinate, Y coordinate) 51 that is most often selected by camera operation.

画像処理サーバ34はカメラ操作で最も選択されることが多かったポジション51を含む処理範囲から画像処理を始めることで、人物を検知するまでの時間を短縮できる。画像処理サーバ34は後述の背景差分処理により人物を検知できなかった場合、例えば1ブロック単位で放射状に処理範囲を拡大していき、画像処理を行う範囲を指定する処理を実行する。   The image processing server 34 can shorten the time until the person is detected by starting the image processing from the processing range including the position 51 that is most often selected by the camera operation. When the person cannot be detected by the background difference process described later, the image processing server 34 performs a process of expanding the processing range radially, for example, in units of one block, and designating a range for image processing.

ステップS36において、画像処理サーバ34は背景差分処理を行う。画像処理サーバ34はステップS31で撮影した背景画像と、背景差分処理時に撮影した現画像とを比較して、差分量(変化量)を抽出する処理を実行する。画像処理サーバ34は抽出した差分量から人物を検知する。画像処理サーバ34は人物を検知するか、処理範囲が拡大できなくなるまでステップS34又はS35の処理を繰り返す。   In step S36, the image processing server 34 performs background difference processing. The image processing server 34 compares the background image captured in step S31 with the current image captured during the background difference process, and executes a process of extracting a difference amount (change amount). The image processing server 34 detects a person from the extracted difference amount. The image processing server 34 repeats the process of step S34 or S35 until a person is detected or the processing range cannot be expanded.

画像処理サーバ34は人物を検知するか処理範囲が拡大できなくなると、ステップS37において判定結果処理を行う。判定結果処理は、背景差分処理の結果である例えばJPEGデータを管理コンテンツの一例であるPC35及びTV37に表示させる処理を実行する。   When the image processing server 34 detects a person or cannot expand the processing range, the image processing server 34 performs determination result processing in step S37. In the determination result process, for example, JPEG data that is a result of the background difference process is displayed on the PC 35 and the TV 37, which are examples of management content.

画像処理サーバ34はステップS31の背景撮影処理に替えて、背景画像を定期的に撮影して蓄積しておくことも考えられる。しかし、背景画像は時間の差異があるほど影などの状態の変化が大きくなることが考えられる。   It is also conceivable that the image processing server 34 periodically shoots and accumulates background images instead of the background shooting process in step S31. However, it is conceivable that the background image has a greater change in state such as a shadow as there is a difference in time.

例えば4時間毎に背景を撮影していても、2時間経ったときには背景画像における影の長さが変化していることも考えられる。そこで、画像処理サーバ34は背景画像における影などの状況の変化により誤検知を招く可能性もあるため、画像処理を行う直前に背景画像を撮影する処理としている。   For example, even if the background is photographed every 4 hours, the length of the shadow in the background image may change after 2 hours. Therefore, since the image processing server 34 may cause a false detection due to a change in a situation such as a shadow in the background image, the image processing server 34 is configured to process the background image immediately before performing the image processing.

図17は検知データ更新・分析処理の一例のフローチャートである。ステップS41において、画像処理サーバ34はカメラ局検知ポイントDB40の更新処理を行う。カメラ局検知ポイントDB40の更新処理はステップS36の背景差分処理の結果でカメラ局検知ポイントDB40の更新処理を実行する。   FIG. 17 is a flowchart of an example of detection data update / analysis processing. In step S41, the image processing server 34 updates the camera station detection point DB 40. In the update process of the camera station detection point DB 40, the update process of the camera station detection point DB 40 is executed based on the result of the background difference process in step S36.

ステップS42において、画像処理サーバ34は検知ポイント分析処理を行う。検知ポイント分析処理は、カメラ局検知ポイントDB40を参照し、各々のカメラ局における人物の検知が多いポイントを特定する処理を実行する。   In step S42, the image processing server 34 performs detection point analysis processing. The detection point analysis process refers to the camera station detection point DB 40 and executes a process for specifying a point where a person is frequently detected in each camera station.

ステップS43において、画像処理サーバ34はカメラ局処理範囲DB39の更新処理を行う。カメラ局処理範囲DB39の更新処理は、検知ポイント分析処理により特定された各々のカメラ局における人物の検知が多いポイント(人物検知ポイント)でカメラ局処理範囲DB39を更新する。   In step S43, the image processing server 34 updates the camera station processing range DB 39. In the update processing of the camera station processing range DB 39, the camera station processing range DB 39 is updated at points (person detection points) where there are many people detected in each camera station specified by the detection point analysis processing.

カメラ局処理範囲DB39は時期(夏季、冬季)の2つのDBを持つことで、格納されるデータの受信日時をキーとして夏季・冬季の判定を行うこともできる。これは、季節により同じカメラ局の画角であっても人物検知ポイントが変わると想定される為である。   Since the camera station processing range DB 39 has two DBs of time (summer season and winter season), it is also possible to determine summer and winter seasons using the reception date and time of stored data as a key. This is because it is assumed that the person detection point changes depending on the season even at the same angle of view of the camera station.

図18は検知実績なしの範囲指定処理の一例のイメージ図である。画像処理サーバ34はカメラ操作で最も選択されることが多かったポジション(X座標、Y座標)51が含まれるブロックを中心として、画像処理を繰り返す毎に処理範囲を広げ、処理していくことにより、早期の人物の検知が可能となる。   FIG. 18 is an image diagram of an example of a range designation process without detection results. The image processing server 34 expands the processing range and repeats processing each time the image processing is repeated, centering on the block including the position (X coordinate, Y coordinate) 51 that is most often selected by camera operation. Early human detection becomes possible.

なお、画像処理サーバ34は検知実績がない場合に、カメラ操作で最も選択されることが多かったポジション51から画像処理を始めることにより、対象となる動体(人物)がいることが多い画角の中心から画像処理を行うことができ、より早く動体を検知することが可能となる。また、外乱となる草木は画角の外側(上部、下部)に集中している場合が多いと考えられる。したがって、画像処理サーバ34は画角の中心から画像処理を行うことで、画角の外側にあることが多いと考えられる草木などによる外乱の影響を小さくすることができ、外乱による誤検知率を低くできる。   Note that when there is no detection result, the image processing server 34 starts the image processing from the position 51 that is most often selected by the camera operation, so that the target moving object (person) is often present. Image processing can be performed from the center, and moving objects can be detected more quickly. In addition, it is considered that the vegetation that becomes a disturbance is often concentrated outside (upper and lower) of the angle of view. Accordingly, the image processing server 34 performs image processing from the center of the angle of view, thereby reducing the influence of disturbance caused by plants and the like that are often outside the angle of view, and reducing the false detection rate due to disturbance. Can be lowered.

図19は検知実績ありの範囲指定処理の一例のイメージ図である。画像処理サーバ34は検知実績の多かった処理範囲を中心として、画像処理を繰り返す毎に処理範囲を広げて処理していくことにより、早期の人物の検知が可能となる。   FIG. 19 is an image diagram of an example of a range designation process with detection results. The image processing server 34 can detect a person at an early stage by expanding the processing range and repeating the processing each time the image processing is repeated, centering on the processing range where the detection results have been high.

なお、画像処理サーバ34は検知実績がある場合に、検知実績の多かった処理範囲から画像処理を始めることにより、対象となる動体(人物)がいることが多い処理範囲から画像処理を行うことができ、より早く動体を検知することが可能となる。また、より早く動体を検知できるため、画像処理サーバ34は草木などによる外乱の影響を小さくすることができ、外乱による誤検知率を低くできる。   Note that when there is a detection record, the image processing server 34 starts image processing from a processing range where the detection record is high, so that image processing can be performed from a processing range in which there are many moving objects (persons) as targets. It is possible to detect a moving object earlier. In addition, since the moving object can be detected earlier, the image processing server 34 can reduce the influence of disturbance due to plants and the like, and can reduce the false detection rate due to disturbance.

本実施例による画像処理サーバ34はCCTVカメラ21の画角に対して、検知実績がない場合と、検知実績がある場合とで、画像処理を開始する処理範囲を使い分けることにより、どのCCTVカメラ21の画角に対しても、より早く動体(人物)の検知が可能となる。また、画像処理サーバ34は、より早く動体を検知できるため、草木のゆれなどの外乱による誤検知率も低くできる。   The image processing server 34 according to the present embodiment selects which CCTV camera 21 by properly using the processing range for starting the image processing depending on whether there is no detection result or no detection result for the angle of view of the CCTV camera 21. The moving object (person) can be detected more quickly for the angle of view. In addition, since the image processing server 34 can detect a moving object earlier, the false detection rate due to disturbances such as vegetation can be reduced.

図20は検知ポイント分析処理の一例のイメージ図である。図20は検知ポイントが含まれる画角100〜105の一例のイメージを表している。画像処理サーバ34は画角100〜105に含まれる検知ポイントから画角105に示すように検知実績の多かった検知ポイントを絞り込む。   FIG. 20 is an image diagram of an example of detection point analysis processing. FIG. 20 shows an example of an angle of view 100 to 105 including detection points. The image processing server 34 narrows down the detection points having a large number of detection results as indicated by the angle of view 105 from the detection points included in the angle of view 100 to 105.

なお、画像処理サーバ34は複数の検知ポイントで検知実績が多い場合や、単体での検知実績が同等で処理範囲が異なる場合など、最初の処理範囲を複数個所で決定する。例えば画角103のパターンの検知実績が多くなってきた場合、最初の処理範囲は画角106のようになる。   Note that the image processing server 34 determines the first processing range at a plurality of locations, such as when there are many detection results at a plurality of detection points, or when the detection results of the single unit are the same and the processing ranges are different. For example, when the detection results of the pattern of the angle of view 103 are increased, the first processing range is the angle of view 106.

図21は管理コンテンツに表示される画面の一例のイメージ図である。図21(A)は画像処理結果をリスト表示する画面のイメージ図である。図21(A)の画面のリストからCCTVカメラ21を選択し、処理結果表示ボタン111を押下することで、管理コンテンツには図21(B)に示すような動体検知した結果を表示する。図21(B)は検知した動体(人物)及び処理範囲113、114を示している。   FIG. 21 is an image diagram of an example of a screen displayed in the management content. FIG. 21A is an image diagram of a screen displaying a list of image processing results. By selecting the CCTV camera 21 from the list on the screen of FIG. 21A and pressing the processing result display button 111, the result of moving object detection as shown in FIG. 21B is displayed on the management content. FIG. 21B shows the detected moving object (person) and the processing ranges 113 and 114.

図21(A)の画面リストからCCTVカメラ21を選択し、映像表示ボタン112を押下することで、管理コンテンツには図21(C)に示すようなCCTVカメラ21により撮影された現在の映像が表示される。   When the CCTV camera 21 is selected from the screen list of FIG. 21A and the video display button 112 is pressed, the management video contains the current video shot by the CCTV camera 21 as shown in FIG. Is displayed.

画像処理サーバ34は例えば図22に示すようなPC80により構成される。図22はPCの一例のハードウェア構成図である。   The image processing server 34 is configured by a PC 80 as shown in FIG. 22, for example. FIG. 22 is a hardware configuration diagram of an example of a PC.

図22のPC80は入力装置81、表示装置82、PC本体83を有する。PC本体83はバス97で相互に接続された主記憶装置91、演算処理装置92、インタフェース装置93、記録媒体読取装置94及び補助記憶装置95を有している。また、バス97には入力装置81及び表示装置82が接続されている。   22 includes an input device 81, a display device 82, and a PC main body 83. The PC main body 83 includes a main storage device 91, an arithmetic processing device 92, an interface device 93, a recording medium reading device 94, and an auxiliary storage device 95 that are connected to each other via a bus 97. An input device 81 and a display device 82 are connected to the bus 97.

バス97で相互に接続されている入力装置81、表示装置82、主記憶装置91、演算処理装置92、インタフェース装置93、記録媒体読取装置94及び補助記憶装置95は演算処理装置92による管理下で相互にデータの送受を行うことができる。演算処理装置92は、PC80全体の動作制御を司る中央処理装置である。   The input device 81, the display device 82, the main storage device 91, the arithmetic processing device 92, the interface device 93, the recording medium reading device 94, and the auxiliary storage device 95 connected to each other via the bus 97 are managed by the arithmetic processing device 92. Data can be sent and received between each other. The arithmetic processing unit 92 is a central processing unit that controls operation of the entire PC 80.

インタフェース装置93はIPネットワーク4等からのデータを受信し、データの内容を演算処理装置92に渡す。インタフェース装置93は演算処理装置92からの指示に応じてIPネットワーク4等にデータを送信する。   The interface device 93 receives data from the IP network 4 or the like and passes the contents of the data to the arithmetic processing device 92. The interface device 93 transmits data to the IP network 4 or the like in response to an instruction from the arithmetic processing device 92.

補助記憶装置65には画像処理サーバ34と同様の機能をPC80に発揮させるプログラムの一部として、少なくとも画像処理サーバ34における処理をPC80に実行させる動体検知プログラムが記憶されている。そして、演算処理装置92が動体検知プログラムを補助記憶装置95から読み出して実行することで、PC80は画像処理サーバ34として機能するようになる。動体検知プログラムは演算処理装置92とアクセス可能な主記憶装置91に格納されていても良い。入力装置81は演算処理装置92の管理下でデータの入力を受付ける。動体検知プログラムはPC80が読み取り可能な記録媒体96に記録しておくことができる。   The auxiliary storage device 65 stores a moving object detection program that causes the PC 80 to execute at least processing in the image processing server 34 as a part of a program that causes the PC 80 to perform the same function as the image processing server 34. Then, the arithmetic processing device 92 reads out the moving object detection program from the auxiliary storage device 95 and executes it, whereby the PC 80 functions as the image processing server 34. The moving object detection program may be stored in the main storage device 91 accessible to the arithmetic processing device 92. The input device 81 receives data input under the control of the arithmetic processing device 92. The moving object detection program can be recorded in a recording medium 96 that can be read by the PC 80.

記録媒体96には、磁気記録媒体、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録媒体には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc − Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。また、光磁気記録媒体には、MO(Magneto − Optical disk)などがある。   Examples of the recording medium 96 include a magnetic recording medium, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Magnetic recording media include HDDs, flexible disks (FD), magnetic tapes (MT) and the like. Examples of the optical disc include a DVD (Digital Versatile Disc), a DVD-RAM, a CD-ROM (Compact Disc-Read Only Memory), and a CD-R (Recordable) / RW (ReWriteable). Magneto-optical recording media include MO (Magneto-Optical disk).

動体検知プログラムを流通させる場合は、動体検知プログラムが記録されたDVD、CD−ROMなどの可搬型の記録媒体96を販売することが考えられる。動体検知プログラムを実行するPC80は例えば記録媒体読取装置94が動体検知プログラムを記録した記録媒体96から動体検知プログラムを読み出す。演算処理装置92は、読み出された動体検知プログラムを主記憶装置91若しくは補助記憶装置95に格納する。   When distributing the moving object detection program, it is conceivable to sell a portable recording medium 96 such as a DVD or a CD-ROM in which the moving object detection program is recorded. For example, the PC 80 that executes the moving object detection program reads the moving object detection program from the recording medium 96 in which the recording medium reader 94 has recorded the moving object detection program. The arithmetic processing device 92 stores the read moving object detection program in the main storage device 91 or the auxiliary storage device 95.

PC80は自己の記憶装置である主記憶装置91若しくは補助記憶装置95から動体検知プログラムを読み取り、動体検知プログラムに従った処理を実行する。演算処理装置92は動体検知プログラムに従って、上述したような各種処理を実現している。   The PC 80 reads the motion detection program from the main storage device 91 or the auxiliary storage device 95 that is its own storage device, and executes processing according to the motion detection program. The arithmetic processing unit 92 implements various processes as described above according to the moving object detection program.

本実施例の動体検知装置を含むシステムは例えば以下に説明するような利用シーンが想定される。例えば河川で増水が発生し、本実施例の動体検知装置を含むシステムは親水施設で人物を検知したとする。河川管理者はPC35で画像処理結果を閲覧し、親水施設にいる人物を確認できる。   The system including the moving body detection apparatus of the present embodiment is assumed to be used as described below, for example. For example, it is assumed that water increases in a river and a system including the moving object detection device of this embodiment detects a person in a hydrophilic facility. The river manager can view the image processing results on the PC 35 and check the person in the hydrophilic facility.

また、TV37には例えばCCTVカメラ21により親水施設にいる人物が撮影された現在の映像が表示される。河川管理者は例えば既存の放送システムや警報設備を利用することにより、河川沿いに設置されたスピーカからの避難指示や、警告灯を点灯させることによる注意喚起により、危険な親水施設にいる人物に避難行動を促すことができる。   Also, the TV 37 displays a current video in which a person in a hydrophilic facility is photographed by the CCTV camera 21, for example. For example, river managers can use existing broadcasting systems and warning equipment to evacuate from speakers installed along rivers and alert people by turning on warning lights to help people in dangerous hydrophilic facilities. Can evacuate.

本発明は、以下に記載する付記のような構成が考えられる。
(付記1)
画像から動体を検知する動体検知装置であって、
カメラ制御実績をカメラ毎に記憶する第1記憶部を参照して、カメラ毎に撮影頻度の高い画角優先で撮影させる手段と、
動体検知実績をカメラ毎に記憶する第2記憶部を参照して、前記カメラ毎に撮影した画像を動体検知実績のある範囲優先で動体検知する手段と
を有する動体検知装置。
(付記2)
前記動体検知する手段は、前記撮影した画像に動体検知実績のある範囲が含まれていれば前記動体検知実績のある範囲から動体検知を始め、前記動体検知実績のある範囲を拡大しながら動体検知を行うこと
を特徴とする付記1記載の動体検知装置。
(付記3)
前記動体検知する手段は、前記撮影した画像に動体検知実績のある範囲が含まれていなければ前記撮影した画像の中心にある範囲から動体検知を始め、前記中心にある範囲を拡大しながら動体検知を行うこと
を特徴とする付記1又は2記載の動体検知装置。
(付記4)
前記動体検知する手段による動体検知結果に基づき、前記第2記憶部に記憶されている前記動体検知実績を更新する手段を更に有すること
を特徴とする付記1乃至3何れか一項記載の動体検知装置。
(付記5)
前記第2記憶部は前記動体検知実績を時期で分けてカメラ毎に記憶すること
を特徴とする付記1乃至4何れか一項記載の動体検知装置。
(付記6)
画像から動体を検知するコンピュータに、
カメラ制御実績をカメラ毎に記憶する第1記憶部を参照して、カメラ毎に撮影頻度の高い画角優先で撮影させ、
動体検知実績をカメラ毎に記憶する第2記憶部を参照して、前記カメラ毎に撮影した画像を動体検知実績のある範囲優先で動体検知する
処理を実行させる動体検知プログラム。
The present invention may have the following configurations as described below.
(Appendix 1)
A moving object detection device for detecting a moving object from an image,
Means for photographing with priority on the angle of view with a high photographing frequency for each camera with reference to the first storage unit that stores the camera control results for each camera;
A moving body detection apparatus comprising: means for detecting a moving body with priority given to a range having a moving body detection result with reference to a second storage unit that stores the moving body detection result for each camera.
(Appendix 2)
The means for detecting a moving object starts moving object detection from a range having a track record of moving object detection if the captured image includes a range having a track record of moving object detection, and detects a moving object while expanding the range having the track record of moving object detection. The moving object detection device according to appendix 1, wherein:
(Appendix 3)
The moving object detection means starts moving object detection from a range at the center of the captured image if the captured image does not include a range with a track record of moving object detection, and detects the moving object while expanding the range at the center. The moving object detection device according to appendix 1 or 2, wherein:
(Appendix 4)
The moving object detection according to any one of claims 1 to 3, further comprising means for updating the moving object detection result stored in the second storage unit based on a moving object detection result by the moving object detection unit. apparatus.
(Appendix 5)
The said 2nd memory | storage part divides the said moving body detection performance according to time, and memorize | stores it for every camera, The moving body detection apparatus as described in any one of the supplementary notes 1 thru | or 4 characterized by the above-mentioned.
(Appendix 6)
To the computer that detects the moving object from the image,
With reference to the first storage unit that stores the camera control results for each camera, each camera is allowed to shoot with a higher angle of view,
A moving object detection program that executes a process of detecting a moving object with priority given to a range having a moving object detection result with reference to a second storage unit that stores the moving object detection result for each camera.

本実施例における推薦プログラムはパッケージソフトの他、WEBサービス等によっても提供可能である。なお、上記の特許請求の範囲に記載したカメラ毎に撮影頻度の高い画角優先で撮影させる手段はステップS14の処理に相当し、動体検知実績のある範囲優先で動体検知する手段はステップS15の処理に相当し、動体検知実績を更新する手段はステップS16の処理に相当する。   The recommendation program in this embodiment can be provided not only by package software but also by a WEB service or the like. The means for photographing with priority given to the angle of view with high photographing frequency for each camera described in the above claims corresponds to the processing of step S14, and the means for detecting moving object with priority given to the range having a motion detection result is shown in step S15. This means corresponds to the process, and the means for updating the moving object detection result corresponds to the process in step S16.

1 センサ設備
2 CCTVカメラ設備
3 河川管理者設備
4 IPネットワーク
11 雨量計
12 水位計
13 洪水センサ
14 IPノード
21 CCTVカメラ
22 エンコーダ装置
23 IPノード
31 河川データサーバ
32 カメラ監視サーバ
33 データ集約サーバ
34 画像処理サーバ
35、80 PC
36 デコーダ装置
37 TV
38 カメラ局PTZ情報データベース(DB)
39 カメラ局処理範囲DB
40 カメラ局検知ポイントDB
81 入力装置
82 表示装置
83 PC本体
91 主記憶装置
92 演算処理装置
93 インタフェース装置
94 記録媒体読取装置
95 補助記憶装置
96 記録媒体
97 バス
DESCRIPTION OF SYMBOLS 1 Sensor equipment 2 CCTV camera equipment 3 River manager equipment 4 IP network 11 Rain gauge 12 Water level gauge 13 Flood sensor 14 IP node 21 CCTV camera 22 Encoder device 23 IP node 31 River data server 32 Camera monitoring server 33 Data aggregation server 34 Image Processing server 35, 80 PC
36 Decoder device 37 TV
38 Camera station PTZ information database (DB)
39 Camera station processing range DB
40 Camera station detection point DB
81 Input Device 82 Display Device 83 PC Main Body 91 Main Storage Device 92 Arithmetic Processing Device 93 Interface Device 94 Recording Medium Reading Device 95 Auxiliary Storage Device 96 Recording Medium 97 Bus

Claims (6)

画像から動体を検知する動体検知装置であって、
センシングデータに基づく危険状態の検出に応じて、カメラ制御実績をカメラ毎に記憶する第1記憶部を参照して、対象カメラ毎にそれぞれのカメラ制御実績が示す最大の撮影頻度に対応する画角への画角の設定指示を行って各カメラに撮影させる手段と、
動体検知実績をカメラ毎に画角に応じて記憶する第2記憶部を参照して、前記対象カメラ毎に、設定指示した画角に対応する動体検知実績が示す最も高い頻度で動体を検知した範囲を優先的に動体検知対象範囲にする手段と
を有する動体検知装置。
A moving object detection device for detecting a moving object from an image,
An angle of view corresponding to the maximum imaging frequency indicated by each camera control result for each target camera with reference to the first storage unit that stores the camera control result for each camera according to detection of a dangerous state based on the sensing data Means for instructing each camera to take an angle of view setting instruction ,
With reference to the second storage unit that stores the moving object detection results according to the angle of view for each camera , the moving object is detected at the highest frequency indicated by the moving object detection results corresponding to the set angle of view for each target camera . Means for preferentially setting the range to be a motion detection target range ;
A moving object detection apparatus.
前記動体を検知した範囲を優先的に動体検知対象範囲にする手段は、前記撮影した画像に動体検知実績のある範囲が含まれていれば前記動体検知実績のある範囲から動体検知を始め、前記動体検知実績のある範囲を拡大しながら動体検知を行うこと
を特徴とする請求項1記載の動体検知装置。
The means for preferentially setting the range in which the moving object is detected as a moving object detection target range starts moving object detection from the range in which the moving object is detected if the captured image includes a range in which the moving object is detected, The moving object detection device according to claim 1, wherein the moving object detection is performed while expanding a range in which the moving object detection results are present.
前記動体を検知した範囲を優先的に動体検知対象範囲にする手段は、前記撮影した画像に動体検知実績のある範囲が含まれていなければ前記撮影した画像の中心にある範囲から動体検知を始め、前記中心にある範囲を拡大しながら動体検知を行うこと
を特徴とする請求項1又は2記載の動体検知装置。
The means for preferentially setting the moving object detection range as a moving object detection target range starts moving object detection from a range at the center of the captured image if the captured image does not include a range with a history of moving object detection. The moving object detection device according to claim 1, wherein the moving object detection is performed while enlarging a range in the center.
前記動体を検知した範囲を優先的に動体検知対象範囲にする手段による動体検知結果に基づき、前記第2記憶部に記憶されている前記動体検知実績を更新する手段を更に有すること
を特徴とする請求項1乃至3何れか一項記載の動体検知装置。
The apparatus further comprises means for updating the moving object detection result stored in the second storage unit based on a moving object detection result by the means for preferentially setting the moving object detection range to the moving object detection target range. The moving object detection device according to claim 1.
前記第2記憶部は前記動体検知実績を時期で分けてカメラ毎に記憶すること
を特徴とする請求項1乃至4何れか一項記載の動体検知装置。
5. The moving object detection apparatus according to claim 1, wherein the second storage unit stores the moving object detection results for each camera by dividing the results.
画像から動体を検知するコンピュータに、
センシングデータに基づく危険状態の検出に応じて、カメラ制御実績をカメラ毎に記憶する第1記憶部を参照して、対象カメラ毎にそれぞれのカメラ制御実績が示す最大の撮影頻度に対応する画角への画角の設定指示を行って各カメラに撮影させ、
動体検知実績をカメラ毎に画角に応じて記憶する第2記憶部を参照して、前記対象カメラ毎に、設定指示した画角に対応する動体検知実績が示す最も高い頻度で動体を検知した範囲を優先的に動体検知対象範囲にする
処理を実行させる動体検知プログラム。
To the computer that detects the moving object from the image,
An angle of view corresponding to the maximum imaging frequency indicated by each camera control result for each target camera with reference to the first storage unit that stores the camera control result for each camera according to detection of a dangerous state based on the sensing data Instruct the camera to set the angle of view ,
With reference to the second storage unit that stores the moving object detection results according to the angle of view for each camera , the moving object is detected at the highest frequency indicated by the moving object detection results corresponding to the set angle of view for each target camera . The range is preferentially set as the motion detection target range .
A motion detection program that executes processing.
JP2010290955A 2010-12-27 2010-12-27 Motion detection device and motion detection program Active JP5821189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010290955A JP5821189B2 (en) 2010-12-27 2010-12-27 Motion detection device and motion detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010290955A JP5821189B2 (en) 2010-12-27 2010-12-27 Motion detection device and motion detection program

Publications (2)

Publication Number Publication Date
JP2012138836A JP2012138836A (en) 2012-07-19
JP5821189B2 true JP5821189B2 (en) 2015-11-24

Family

ID=46675894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010290955A Active JP5821189B2 (en) 2010-12-27 2010-12-27 Motion detection device and motion detection program

Country Status (1)

Country Link
JP (1) JP5821189B2 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921973B2 (en) * 1990-11-29 1999-07-19 株式会社日立製作所 Image extraction method and image extraction device for specific object
JP2003110917A (en) * 2001-10-01 2003-04-11 Minolta Co Ltd Remote control camera system, photographing device, program and recording medium
JP2003204517A (en) * 2002-01-08 2003-07-18 Kubota Corp Supervisory system
JP2004186987A (en) * 2002-12-03 2004-07-02 Mitsubishi Electric Corp Remote monitor device and remote monitor system using the same
JP4354391B2 (en) * 2004-12-07 2009-10-28 株式会社日立国際電気 Wireless communication system
JP4658788B2 (en) * 2005-12-06 2011-03-23 株式会社日立国際電気 Image processing apparatus, image processing method, and program
JP2008204197A (en) * 2007-02-20 2008-09-04 Toshiba Corp Alarm output device
JP2008234169A (en) * 2007-03-19 2008-10-02 Mitsubishi Electric Corp Object detector, and object detecting program
JP2010183334A (en) * 2009-02-05 2010-08-19 Mitsubishi Electric Corp Video monitoring system
JP2010238122A (en) * 2009-03-31 2010-10-21 Fujitsu Ltd Device, program and method for registration of event information
JP2010245580A (en) * 2009-04-01 2010-10-28 Hitachi Kokusai Electric Inc Video display system

Also Published As

Publication number Publication date
JP2012138836A (en) 2012-07-19

Similar Documents

Publication Publication Date Title
US8531525B2 (en) Surveillance system and method for operating same
KR102227641B1 (en) Multi image displaying method, Multi image managing server, Multi image displaying system, Computer program and Recording medium storing computer program for the same
CN105306899B (en) Method and device for processing monitoring video
US20060077262A1 (en) Imaging system and imaging method
EP1696398A2 (en) Information processing system, information processing apparatus and information processing method , program, and recording medium
JP4716744B2 (en) Video surveillance and distribution device
KR101149916B1 (en) Warning system of landslide
WO2021068553A1 (en) Monitoring method, apparatus and device
KR20160099931A (en) Disaster preventing and managing method for the disaster harzard and interest area
US20170264877A1 (en) Pan/tilt/zoom camera based video playing method and apparatus
KR20160093253A (en) Video based abnormal flow detection method and system
JP2010183334A (en) Video monitoring system
JP2010233185A (en) Apparatus, system and program for processing image
JP2007158496A (en) Map interconnection video monitoring method and apparatus thereof
JP5821189B2 (en) Motion detection device and motion detection program
KR101954951B1 (en) Multi image displaying method
KR101589823B1 (en) Cctv monitoring system providing variable display environment to search event situation efficiently
KR101793702B1 (en) Video storage apparatus and method for searching thereof
JP3540113B2 (en) Disaster situation management system
JP4597543B2 (en) Automatic tracking device and automatic tracking method
JP2003204517A (en) Supervisory system
KR102101445B1 (en) Method for automatic update of candidate surveillance areas by image recording device or server using smart-rotation surveillance technology
JP4637564B2 (en) Status detection device, status detection method, program, and recording medium
JP3536913B2 (en) Falling object detection system, falling object detection method, and recording medium
KR101698864B1 (en) Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150624

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150921

R150 Certificate of patent or registration of utility model

Ref document number: 5821189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150