JP2005176077A - Camera monitoring system and its monitoring control method - Google Patents

Camera monitoring system and its monitoring control method Download PDF

Info

Publication number
JP2005176077A
JP2005176077A JP2003415177A JP2003415177A JP2005176077A JP 2005176077 A JP2005176077 A JP 2005176077A JP 2003415177 A JP2003415177 A JP 2003415177A JP 2003415177 A JP2003415177 A JP 2003415177A JP 2005176077 A JP2005176077 A JP 2005176077A
Authority
JP
Japan
Prior art keywords
determination
abnormal event
camera
result
determination condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003415177A
Other languages
Japanese (ja)
Inventor
Yoshihiko Suzuki
美彦 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003415177A priority Critical patent/JP2005176077A/en
Publication of JP2005176077A publication Critical patent/JP2005176077A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera monitoring system for monitoring traffic situation and applying image processing whose fault detection result having a higher correct answer rate to match with the judgment of a watchman. <P>SOLUTION: The camera monitoring system stores an image signal processing algorithm in an image processing portion 1 for processing video image information by a camera 4 to judge fault events, data such as operating parameters, and fault event judgment results into a data server 25, along with a time information (time tag). Consequently, three kinds of estimation results, a watchman's correct detection, wrong detection as a fault event, and failure in detection, can be compared and collated. The stored data and the evaluation results are collated and analyzed. As a result, a control unit 24 controls and adjusts the image processing portion 1 so as to be able to detect fault events correctly, in order to improve the correct answer rate. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、映像監視を行うカメラ監視システムおよびその監視制御方法に関する。   The present invention relates to a camera monitoring system that performs video monitoring and a monitoring control method thereof.

道路の通行状況を監視カメラの映像情報により監視して交通情報を生成したり高速道路の交通管理を行うカメラ監視システムがある。   There is a camera monitoring system that generates traffic information by monitoring the traffic situation of a road using video information of a monitoring camera and manages traffic on a highway.

このカメラ監視システムは、監視員がカメラ映像や、カメラ映像以外の交通情報システムや、各種通報により道路の走行状態を判定して渋滞情報等を報じている。   In this camera monitoring system, a surveillance person reports traffic information by determining the driving state of a road by a camera image, a traffic information system other than the camera image, and various reports.

高速道路等では、複数の監視カメラが設置されているが監視員が常時全ての監視カメラを監視し、異常発生を即時に察知するのは困難である。そこで、これらのカメラ監視システムでは映像監視の補助として、カメラの映像情報を画像処理して渋滞等の異常事象の警報を発報して監視員に通知するものである。   On highways and the like, a plurality of surveillance cameras are installed, but it is difficult for the surveillance staff to constantly monitor all the surveillance cameras and immediately detect the occurrence of an abnormality. Therefore, in these camera monitoring systems, as an aid to video monitoring, the video information of the camera is subjected to image processing, an alarm for abnormal events such as traffic jams is issued, and the monitoring staff is notified.

監視カメラの映像情報から異常事象の検出を行う画像処理方法は、各種の目標検出アルゴリズムや、異常事象検出アルゴリズムがあり、1例として、撮影した車両の動きを観測して、被写体の長時間滞留や出現、消失を検出するものがある(例えば、特許文献1参照。)。   Image processing methods that detect abnormal events from video information from surveillance cameras include various target detection algorithms and abnormal event detection algorithms. For example, the movement of a photographed vehicle is observed and the subject stays for a long time. There are those that detect appearance and disappearance (for example, see Patent Document 1).

しかし、各アルゴリズムは、交通状況に対応して的確に様々な交通状況での異常事象を検出、分類するには適性があり、また更にその異常事象検出を正しく判定する動作パラメータの設定も一様でない。そこで従来は異常事象の判定は、監視員の判定に依存せざるを得ない問題があった。   However, each algorithm is suitable for accurately detecting and classifying abnormal events in various traffic situations according to the traffic conditions, and furthermore, the operation parameters that determine the abnormal event detection correctly are also set uniformly. Not. Conventionally, therefore, there is a problem that the determination of an abnormal event has to depend on the determination of a supervisor.

判定条件、および動作パラメータの設定は、実環境での映像情報と画像処理動作のデータを取得し、その動作や、異常事象検出結果を監視員の判定と照合して画像処理方法の設計や調整することが必要であるにも拘わらず、従来は、日誌等でカメラ監視システムの判定結果と監視員の判定結果が散発的に報告される程度であったのでカメラ監視システムの動作と監視員の判定との照合を十分に行うことが出来なかった。
特開2002−262282号公報 (第12ページ、第2図)
Judgment conditions and operation parameters are set by acquiring video information and image processing operation data in the actual environment, and comparing the operation and abnormal event detection results with the judgment of the monitor to design and adjust the image processing method. Although it was necessary to do so, the camera monitoring system operation results and the monitoring personnel's results were conventionally reported only in sporadic reports in the diary etc. It was not possible to sufficiently verify with the judgment.
JP 2002-262282 A (12th page, FIG. 2)

カメラ監視システムにおいて交通監視カメラの映像情報から異常事象検出を自動的に行う画像処理方法には、各種のアルゴリズムがあるが、各アルゴリズムも、様々な交通状況に対応して的確に異常事象を抽出、分類するには適性がある、また更にその異常事象検出を正しく判定する為の動作パラメータの設定も一様でない。その結果、従来は、異常事象の判定は監視員の判定に依存せざるを得ない問題があった。また、特に動作パラメータの設定は、実環境での映像情報と画像処理動作を測定し、その動作や、異常検出結果を、監視員の判定と照合して画像処理方法の設計や調整することが必要にも拘わらず、従来は、カメラ監視システムの動作と監視員の判定との照合データが蓄積されずアルゴリズムの検証や動作パラメータの設定を確認するには不十分である問題があった。   There are various algorithms for image processing methods that automatically detect abnormal events from video information of traffic monitoring cameras in camera monitoring systems, but each algorithm also accurately extracts abnormal events corresponding to various traffic conditions. It is suitable for classification, and the setting of operation parameters for correctly determining the abnormal event detection is not uniform. As a result, conventionally, there has been a problem that the determination of an abnormal event has to depend on the determination of a supervisor. In particular, the setting of operation parameters can be performed by measuring video information and image processing operations in a real environment, and comparing the operations and abnormality detection results with the judgment of the supervisor to design and adjust the image processing method. In spite of necessity, conventionally, there has been a problem that the verification data between the operation of the camera monitoring system and the judgment of the monitoring person is not accumulated, which is insufficient for verifying the algorithm and confirming the setting of the operation parameter.

本発明は上記問題を解決するためになされたもので、交通状況を監視するカメラ監視システムの画像処理による異常検出結果が監視員の判定と一致する正答率の高いカメラ監視システムを実現することを目的とする。   The present invention has been made to solve the above-described problem, and realizes a camera monitoring system with a high correct answer rate in which an abnormality detection result by image processing of a camera monitoring system that monitors traffic conditions matches a judgment of a monitor. Objective.

上記目的を達成するために、本発明のカメラ監視システムは、交通状況をカメラの映像情報によって監視するカメラ監視システムであって、前記カメラ監視システムの動作を参照するための時刻情報を出力する時計手段と、前記カメラの映像情報から車両の画像情報を抽出する抽出手段と、その抽出された画像情報から交通状況に係わる異常事象情報を検出する検出手段と、前記検出された異常事象情報から異常事象を弁別して判定する判定手段と、前記判定された異常事象の判定結果を前記カメラ監視システムの監視員に通知する通知手段と、前記監視員が前記通知された異常事象の判定結果を正しい正検出と評価したか、又は、異常事象が発生していないのに異常事象が発生した誤検出と評価したか、それとも異常事象が発生したのに異常事象が発生しなかった未検出と評価したかのうちいずれか1つの評価結果を入力する評価入力手段と、前記映像情報と、前記画像情報と、前記異常事象情報と、前記判定手段が前記弁別して判定する判定条件と、前記異常事象の判定結果と、前記評価結果と、前記時刻情報とを記憶する記憶手段と、前記各手段を監視制御する制御手段とを具備することを特徴とする。   In order to achieve the above object, a camera monitoring system according to the present invention is a camera monitoring system that monitors traffic conditions based on video information of a camera, and outputs a time information for referring to the operation of the camera monitoring system. Means for extracting vehicle image information from the video information of the camera, detection means for detecting abnormal event information relating to traffic conditions from the extracted image information, and an abnormality from the detected abnormal event information. A determination unit that discriminates and determines an event; a notification unit that notifies a determination result of the determined abnormal event to a monitor of the camera monitoring system; and a correct correct result of the determination of the abnormal event notified by the monitor It was evaluated as a detection, or it was evaluated as a false detection where an abnormal event occurred when no abnormal event occurred, or it was different even though an abnormal event occurred. An evaluation input means for inputting any one of the evaluation results of whether the event has not been detected as undetected, the video information, the image information, the abnormal event information, and the determination means include the valve It is characterized by comprising a determination condition to be determined separately, a determination result of the abnormal event, the evaluation result, and the time information, and a control means for monitoring and controlling the respective means.

また、本発明のカメラ監視システムの監視制御方法は、カメラと、時計手段と、前記カメラの映像情報から車両の画像情報を抽出する抽出手段と、その抽出された画像情報から異常事象情報を検出する検出手段と、前記検出された異常事象情報から異常事象を弁別して判定する判定手段と、前記判定された異常事象の判定結果をカメラ監視システムの監視員に通知する通知手段と、前記監視員が前記通知された異常事象の判定結果を正しい正検出と評価したか、又は、異常事象が発生していないのに異常事象が発生した誤検出と評価したか、それとも異常事象が発生したのに異常事象が発生しなかった未検出と評価したかのうちいずれか1つの評価結果を入力する評価入力手段と、記憶手段と、前記各手段を監視制御する制御手段とを具備した交通状況を監視するカメラ監視システムの監視制御方法であって、前記抽出手段は、前記記憶手段に記憶設定された抽出動作パラメータにより前記カメラの映像情報から前記画像情報を抽出し、前記検出手段は、前記記憶手段に記憶設定された検出動作パラメータにより前記抽出された画像情報から交通状況の異常事象情報を検出して前記判定手段に送信し、前記判定手段は、前記異常事象情報を受信すると前記記憶手段に記憶設定された判定条件とを照合して前記異常事象を弁別する判定を行い、前記記憶手段は、前記抽出手段の抽出動作パラメータと前記検出手段の検出動作パラメータと、前記各パラメータの組合せからなる前記異常事象の複数の判定条件の候補と、前記記憶された候補のうち少なくとも1つの判定条件によって前記判定手段が判定した判定結果と、前記判定結果のうち前記通知手段が前記監視カメラシステムの監視員に通知した判定結果と、前記評価入力手段から入力された評価結果と、前記時計手段から受信した時刻情報とを記憶し、前記制御手段は、前記候補のうち、1つを選択してその判定条件による判定結果を前記通知する制御を前記通知手段に行い、前記通知を受信した監視員により前記評価入力手段から入力された前記評価結果を判読し、その評価結果が、前記正検出でない場合、前記記憶手段が記憶するデータを前記時刻情報を参照して読み出し、前記画像情報、前記異常事象情報、前記抽出動作パラメータ、および前記検出動作パラメータを検索し、前記評価結果が前記正検出となる前記抽出動作パラメータと前記検出動作パラメータとの組合せの新たな判定条件を探し出した場合、次回以降の通知は前記新たな判定条件によって前記異常事象を弁別して判定した結果を通知する様に修正変更する制御を行うことを特徴とする。   The monitoring control method of the camera monitoring system of the present invention includes a camera, a clock means, an extraction means for extracting vehicle image information from video information of the camera, and detecting abnormal event information from the extracted image information. Detecting means for determining, determining means for discriminating and determining an abnormal event from the detected abnormal event information, notification means for notifying a monitoring result of the determined abnormal event to a monitor of the camera monitoring system, and the monitor Evaluates the judgment result of the notified abnormal event as a correct positive detection, or evaluates it as a false detection that an abnormal event has occurred even though no abnormal event has occurred, or an abnormal event has occurred. It comprises evaluation input means for inputting any one of the evaluation results of whether the abnormal event has not been detected and evaluated, storage means, and control means for monitoring and controlling each of the means. A monitoring control method for a camera monitoring system for monitoring a traffic situation, wherein the extraction unit extracts the image information from video information of the camera according to an extraction operation parameter stored in the storage unit, and the detection unit includes: The abnormal event information of the traffic situation is detected from the extracted image information by the detection operation parameter stored and set in the storage means, and is transmitted to the determination means. When the determination means receives the abnormal event information, The determination unit discriminates the abnormal event by collating with the determination condition stored in the storage unit, and the storage unit extracts the extraction operation parameter of the extraction unit, the detection operation parameter of the detection unit, and each of the parameters. A plurality of determination condition candidates for the abnormal event consisting of a combination and at least one determination condition among the stored candidates A determination result determined by the determination means; a determination result of the determination result notified by the notification means to a monitor of the surveillance camera system; an evaluation result input from the evaluation input means; and a reception from the clock means The time information is stored, and the control means selects one of the candidates and performs the control for notifying the determination result based on the determination condition to the notification means, and the monitor who receives the notification performs the control. When the evaluation result input from the evaluation input means is read and the evaluation result is not the positive detection, the data stored in the storage means is read with reference to the time information, the image information, and the abnormal event information The extraction operation parameter and the detection operation parameter are searched, and the extraction operation parameter and the detection operation parameter whose evaluation result is the positive detection are determined. When a new determination condition for the combination is found, the notification for the next and subsequent times is controlled to be corrected and changed so as to notify the result determined by discriminating the abnormal event according to the new determination condition.

本発明によるカメラ監視システムは、カメラの映像情報を処理して異常事象の判定を行う画像信号処理のアルゴリズム、動作パラメータ等の組合せからなる判定条件、およびその判定結果のデータ、ならびにカメラの映像情報を、監視員がその判定に対して正しく検出したか、異常事象と誤って判定したか、異常事象を検出できなかったかの3つの評価結果データと比較照合出来るよう時刻情報と共にデータサーバに記憶し、その記憶データとカメラ映像情報、および評価結果データとを照合して上記判定内容を分析することにより、異常事象を正しく検出できる様に画像信号処理のアルゴリズムや動作パラメータを調整して正答率を上げることができる。   The camera monitoring system according to the present invention includes a video signal processing algorithm for processing abnormal image information by processing video information of the camera, a determination condition including a combination of operation parameters, and data of the determination result, and video information of the camera. Is stored in the data server together with the time information so that it can be compared with the three evaluation result data of whether the monitor has correctly detected for the determination, erroneously determined as an abnormal event, or whether the abnormal event has not been detected, By comparing the stored data with the camera video information and the evaluation result data and analyzing the determination contents, the image signal processing algorithm and operating parameters are adjusted to increase the correct answer rate so that abnormal events can be detected correctly. be able to.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施例に係わるカメラ監視システムの1例の構成要素を示すブロック図である。   FIG. 1 is a block diagram showing components of an example of a camera monitoring system according to an embodiment of the present invention.

図1におけるカメラ監視システムは、カメラ映像によって道路監視を行うカメラ監視システムの構成と配置例で、カメラ4、画像処理部1、ネットワーク3、監視センター2とから構成される。カメラ4と画像処理部1は、(#1)〜(#n)の組になり、画像処理部1は、高速道路設備の電気室や事務所等の現場に設置されて道路の交通状況を撮影する。   The camera monitoring system in FIG. 1 is a configuration and arrangement example of a camera monitoring system that performs road monitoring using camera images, and includes a camera 4, an image processing unit 1, a network 3, and a monitoring center 2. The camera 4 and the image processing unit 1 are a set of (# 1) to (#n), and the image processing unit 1 is installed in a site such as an electric room of an expressway facility or an office to check traffic conditions on the road. Take a picture.

画像処理部1は、カメラ4が撮影した映像情報から車両画像を抽出する手段である特徴抽出部11、交通状況、渋滞等の異常事象を判定するための異常事象情報である車両の速度を測定、算出する事象検出部12、算出された速度により異常事象を弁別して判定する判定部13、および上記画像処理部の各構成要素を制御する制御・通信部14とから構成される。   The image processing unit 1 measures the speed of the vehicle, which is abnormal event information for determining abnormal events such as traffic conditions and traffic jams, a feature extracting unit 11 that is a means for extracting vehicle images from video information captured by the camera 4 The event detection unit 12 to be calculated, the determination unit 13 that discriminates and determines an abnormal event based on the calculated speed, and the control / communication unit 14 that controls each component of the image processing unit.

判定部13は、異常事象の判定条件の候補をリストしたテーブルTを具備している。テーブルTは画像処理部1の内部メモリに作成され、特徴抽出部11の抽出動作パラメータと、事象検出部12の検出動作パラメータの組合せからなる判定条件の候補を表にして記憶している。   The determination unit 13 includes a table T that lists candidates for determination conditions for abnormal events. The table T is created in the internal memory of the image processing unit 1, and stores judgment condition candidates consisting of combinations of extraction operation parameters of the feature extraction unit 11 and detection operation parameters of the event detection unit 12 in a table.

抽出動作パラメータは、画像抽出アルゴリズム、画像2値化のスレショルドレベル、車両画像の追跡点等であり、検出動作パラメータは、車両速度の測定区間、測定頻度等である。   The extraction operation parameters are an image extraction algorithm, an image binarization threshold level, a tracking point of the vehicle image, and the like, and the detection operation parameters are a vehicle speed measurement section, a measurement frequency, and the like.

特徴抽出部11、事象検出部12、判定部13における処理データや、動作パラメータは、内部バス等で、制御・通信部14に接続され、更に制御・通信部14からネットワーク3を介して監視センター2のデータサーバ25に送信される。   Processing data and operation parameters in the feature extraction unit 11, event detection unit 12, and determination unit 13 are connected to the control / communication unit 14 via an internal bus or the like, and are further monitored from the control / communication unit 14 via the network 3. 2 is transmitted to the second data server 25.

監視センター2は、ネットワーク3から受信したカメラ4(#1〜#n)の映像情報を表示する監視モニタ21、表示するカメラ4(#1〜#n)を選択したり、画像処理部1の制御の入力、および監視センターの各構成の動作、データサーバ25が記憶しているデータを読み出す制御の入力を行う制御卓22、制御卓22に取り付けられ、画像処理部1が通知してきた異常事象の通知(警報)に応答して「正検知」、「誤検出」、または「未検出」のいずれかの評価を入力する評価スイッチ23、制御部24、およびデータサーバ25とからなる。データサーバ25は、画像処理部1から送信された映像情報、特徴抽出部11の設定データ、事象検出部12の設定や動作データ、判定部13の異常事象の判定結果等を記憶する。制御部24は、操作卓22からの入力設定、又は、内蔵したプログラムによって上記のデータサーバの各構成要素や画像処理部1等の制御やデータ監視を行う。   The monitoring center 2 selects the monitoring monitor 21 that displays the video information of the cameras 4 (# 1 to #n) received from the network 3, the cameras 4 (# 1 to #n) to display, and the image processing unit 1 The control console 22, the operation of each component of the monitoring center, the control console 22 for performing the control input for reading the data stored in the data server 25, the abnormal event attached to the control console 22 and notified by the image processing unit 1 The evaluation switch 23, the control unit 24, and the data server 25 input the evaluation of “correct detection”, “false detection”, or “not detected” in response to the notification (alarm). The data server 25 stores the video information transmitted from the image processing unit 1, the setting data of the feature extraction unit 11, the setting and operation data of the event detection unit 12, the determination result of the abnormal event of the determination unit 13, and the like. The control unit 24 performs control and data monitoring of each component of the data server, the image processing unit 1 and the like by input setting from the console 22 or a built-in program.

データサーバ25は、ネットワーク3を介して受信したカメラ4の映像情報を記録し、判定部13のテーブルTに記憶された各判定条件の候補に対応して取得した異常事象の処理に係わる諸データを記憶するログテーブルTLを備えている。   The data server 25 records the video information of the camera 4 received via the network 3 and various data relating to the processing of the abnormal event acquired corresponding to each determination condition candidate stored in the table T of the determination unit 13. Is stored in the log table TL.

また、監視センター2には前記カメラ4からの映像信号を画像処理する画像処理部1(#c)が設置される場合、そして、データサーバ25が画像処理部1の設置されている現場に設置される場合もある。   In addition, when the image processing unit 1 (#c) that performs image processing on the video signal from the camera 4 is installed in the monitoring center 2, the data server 25 is installed at the site where the image processing unit 1 is installed. Sometimes it is done.

カメラ4で撮影した映像情報から、特徴抽出部11は、車両の位置を特定する画像情報を抽出し、特徴抽出部11がその画像情報から車両の走行速度を算出して「平常」の走行か、「渋滞」等の異常事象を判定する為の車両の走行速度データを生成する。判定部13は、事象検出部12から受信した走行速度データから車両の走行速度を判読し、交通状況の異常事象を「平常」か、「渋滞」等の異常事象かを弁別判定する。   From the video information photographed by the camera 4, the feature extraction unit 11 extracts image information for specifying the position of the vehicle, and the feature extraction unit 11 calculates the traveling speed of the vehicle from the image information to determine whether it is “normal” traveling. , Vehicle traveling speed data for determining an abnormal event such as “traffic jam” is generated. The determination unit 13 interprets the traveling speed of the vehicle from the traveling speed data received from the event detection unit 12 and discriminates whether the abnormal event of the traffic situation is an abnormal event such as “normal” or “congestion”.

制御・通信部14は、判定部13が弁別判定するための各判定条件を設定する判定条件や、特徴抽出部11、および特徴抽出部11の動作パラメータをテーブルTに設定する。制御・通信部14は、このテーブルTに設定される情報、データ、および判定部13の判定結果のデータをネットワーク3を介して監視センター2のデータサーバ25との間で送受信する。   The control / communication unit 14 sets, in the table T, determination conditions for setting each determination condition for the determination unit 13 to perform discrimination determination, and the operation parameters of the feature extraction unit 11 and the feature extraction unit 11. The control / communication unit 14 transmits / receives information and data set in the table T and data of the determination result of the determination unit 13 to / from the data server 25 of the monitoring center 2 via the network 3.

さて、図1において、カメラ4(#1)が撮影した映像情報は、2つの系統に分かれて送信される。一方は画像処理部の特徴抽出部11に送信され、他方は、制御・通信部14からネットワーク3を介して監視センター2に送信されて監視センター2の監視モニタ21に表示され、また同時にデータサーバ25にも記録される。   In FIG. 1, the video information captured by the camera 4 (# 1) is transmitted in two systems. One is transmitted to the feature extraction unit 11 of the image processing unit, and the other is transmitted from the control / communication unit 14 to the monitoring center 2 via the network 3 and displayed on the monitoring monitor 21 of the monitoring center 2, and at the same time the data server 25 is also recorded.

特徴抽出部11は、制御・通信部14によって車両画像を検出するアルゴリズムが設定され映像情報から、車両の走行速度を測定するための車両画像情報を抽出する。このアルゴリズムは、「背景差分」方法、「エッジ検出」方法、更にフレーム比較方法を始めとして数多くが有る。ここでは、その1例として「背景差分」方法と「エッジ検出」方法を取り上げ、最初にカメラ4の映像情報から車両画像の追尾点を抽出する「背景差分」方法が設定された場合の動作を説明する。   The feature extraction unit 11 is set with an algorithm for detecting a vehicle image by the control / communication unit 14 and extracts vehicle image information for measuring the traveling speed of the vehicle from the video information. There are many algorithms such as a “background difference” method, an “edge detection” method, and a frame comparison method. Here, the “background difference” method and the “edge detection” method are taken as an example, and the operation when the “background difference” method for extracting the tracking point of the vehicle image from the video information of the camera 4 is set first. explain.

「背景差分」方法では、車両を監視する道路のカメラ映像を撮影し、背景画面情報として特徴抽出部11の内部メモリに記憶する。例えば、車両が走行していない道路を撮影したカメラの映像情報が背景画面情報である。この背景画面情報は、日照や、道路の周囲状況で変化するので所定の設定条件によって平均化等の処理と更新が行われる。   In the “background difference” method, a camera image of a road that monitors a vehicle is captured and stored in the internal memory of the feature extraction unit 11 as background screen information. For example, video information of a camera that captures a road on which a vehicle is not traveling is background screen information. Since this background screen information changes depending on the sunshine and the surrounding environment of the road, processing and updating such as averaging are performed according to predetermined setting conditions.

カメラ4が撮影する映像情報は、フレーム毎に特徴抽出部11で背景画面情報を基準にして差分が求められ、その差分映像情報が更に2値化された車両画像の情報になる。そしてこの車両画像の情報から更に車両の追跡点が抽出される。   The video information photographed by the camera 4 is obtained for each frame by the feature extraction unit 11 with reference to the background screen information, and the difference video information is further binarized vehicle image information. And the tracking point of a vehicle is further extracted from the information of this vehicle image.

図2は、車両画像の「背景差分」方法を説明する図である。
図2(a)は、監視モニタ21の画面の車両表示の例で、差分映像情報の車両の形状は、は原画と同じに表示される。図2(b)は、その差分信号のビデオ信号の振幅を示している。
FIG. 2 is a diagram for explaining the “background difference” method of the vehicle image.
FIG. 2A shows an example of vehicle display on the screen of the monitoring monitor 21. The vehicle shape of the difference video information is displayed in the same manner as the original image. FIG. 2B shows the video signal amplitude of the difference signal.

図2(b)で1−1部分はビデオ信号の最大振幅値で車両のもっとも明るい部分にあたり、2−2部分は背景にあたるビデオ信号レベルである。3−3部分は、車両部分を抽出するスレショルドレベルGaで、1−1と2−2の中間値(または、平均値)である。   In FIG. 2B, the 1-1 part is the maximum amplitude value of the video signal, which is the brightest part of the vehicle, and the 2-2 part is the video signal level corresponding to the background. The 3-3 portion is a threshold level Ga for extracting the vehicle portion, and is an intermediate value (or average value) between 1-1 and 2-2.

スレショルドレベルは、このほか、最大ビデオ信号レベル近くの1−1の値Gb、また最低信号レベル近くの2−2の値Gcのほか、一定の固定の信号レベルにするなど幾つかのパラメータで設定される。   The threshold level is set by several parameters such as a value Gb of 1-1 near the maximum video signal level, a value Gc of 2-2 near the lowest signal level, and a fixed signal level. Is done.

なお、この図2(b)では、白い塗装の車両のビデオ信号レベルなので背景よりも明るい車両部分は凸状の信号レベル変化を示すが、黒い塗装の車両の場合は背景よりも車両の信号レベルは下がり凹状になる。車両の塗色、照明、背景色などの違いにより車両部分の信号レベルやスレショルドは様々に異なったものになる。   In FIG. 2 (b), the video signal level of the white painted vehicle shows a convex signal level change in the vehicle portion brighter than the background. However, in the case of a black painted vehicle, the signal level of the vehicle is higher than the background. Falls and becomes concave. The signal level and threshold of the vehicle portion vary depending on the paint color, lighting, background color, etc. of the vehicle.

図3は、2値化された画像図であって、黒い部分が車両部分である。
図3(a)、(b)(c)は、スレショルドレベルがそれぞれGa、Gb、Gcに対応した2値化画像である。各図3(a)〜(c)はスレショルドレベルの違いにより2値化画像の形状が異なり、図3(b)では、車体の暗い部分が削除され、複数のブロックによって1つの車両画像を形成している。
FIG. 3 is a binarized image diagram in which the black portion is the vehicle portion.
FIGS. 3A, 3B, and 3C are binary images whose threshold levels correspond to Ga, Gb, and Gc, respectively. 3 (a) to 3 (c), the shape of the binarized image differs depending on the threshold level. In FIG. 3 (b), the dark part of the vehicle body is deleted, and one vehicle image is formed by a plurality of blocks. doing.

各図3(a)〜(c)において車両部分の外側部分の上下左右方向の最も外側の接線を取り出して生成したマークの枠が車両画像の追跡ゲートTGbである。図3(b)では、複数のブロックがあるので1台の車両が複数台の車両に誤判定される危険が有る。一方、図3(c)は、背景とのビデオ信号レベル差(コントラスト)が小さいと2値化車両画像が大きくなり、さらには、車両と背景の区別が付かなくなって追跡ゲートTGbを生成できなくなる危険がある。   In each of FIGS. 3A to 3C, a mark frame generated by taking out the outermost tangent in the vertical and horizontal directions of the outer portion of the vehicle portion is a tracking gate TGb of the vehicle image. In FIG. 3B, since there are a plurality of blocks, there is a risk that one vehicle is erroneously determined as a plurality of vehicles. On the other hand, in FIG. 3C, when the video signal level difference (contrast) with the background is small, the binarized vehicle image becomes large, and further, the vehicle cannot be distinguished from the background and the tracking gate TGb cannot be generated. There is danger.

特徴抽出部11は、カメラ4から映像情報を受信し、この追跡ゲートTGbを生成すると、ロックオン信号を生成して内部バスに送信する。事象検出部12がロックオン信号を受信すると車両の走行速度の算出を始める。   When the feature extraction unit 11 receives the video information from the camera 4 and generates the tracking gate TGb, the feature extraction unit 11 generates a lock-on signal and transmits it to the internal bus. When the event detection unit 12 receives the lock-on signal, calculation of the traveling speed of the vehicle is started.

車両の走行速度は、この追跡ゲートTGbの角の部分を追跡点として画面上の移動速度を測定する。追跡点は、追跡ゲートTGbの4つの角のうちから1つが選択される。   As for the traveling speed of the vehicle, the moving speed on the screen is measured using the corner portion of the tracking gate TGb as a tracking point. One of the four corners of the tracking gate TGb is selected as the tracking point.

図2においては、車両が左から右方向へ走行しているので、車両の道路の後部接地面に近い左下の角を追跡点LLに選択する。   In FIG. 2, since the vehicle is traveling from left to right, the lower left corner close to the rear ground contact surface of the vehicle road is selected as the tracking point LL.

以上の車両を検出するアルゴリズム「背景差分」と2値化のスレショルドレベル(ここでは、Gaとする。)、および、追跡点LLの組合せは、画像情報の抽出条件のパラメータとして後述の異常事象の判定条件のパラメータと共に、予め判定部13のテーブルTとデータサーバ25のテーブルTLに設定・記憶される。   The combination of the above-described algorithm “background difference” for detecting the vehicle, the threshold level of binarization (here, Ga), and the tracking point LL is used as a parameter of the extraction condition of the image information as an abnormal event described later. It is set and stored in advance in the table T of the determination unit 13 and the table TL of the data server 25 together with the determination condition parameters.

これらの設定は、監視センター2の操作卓22のキーボード等の入力装置から所定の手順で行われ、例えばデータサーバ25のログテーブルTLに初期設定を行い、その設定された諸データをネットワーク3を介して、更に各画像処理部1のテーブルTにダウンロードして設定すればよい。また、画像処理部1の制御・通信部14を介して調整用のパーソナルコンピュータを接続して、そのキーボードから入力設定するものであっても良い。   These settings are performed in a predetermined procedure from an input device such as a keyboard of the console 22 of the monitoring center 2. For example, initial setting is performed in the log table TL of the data server 25, and the set data is transferred to the network 3. Then, it may be downloaded and set in the table T of each image processing unit 1. Alternatively, an adjustment personal computer may be connected via the control / communication unit 14 of the image processing unit 1 and input setting may be performed from the keyboard.

図4は、判定条件がリストされた判定部13のテーブルTの1例である。   FIG. 4 is an example of the table T of the determination unit 13 in which the determination conditions are listed.

図4において、判定条件は、抽出動作パラメータの「特徴抽出方法」(「アルゴリズム」、「スレショルド」、「追跡ポイント」)、および検出動作パラメータの「事象判定条件」(「測定区間・距離」、「測定頻度」、「判定使用」)等とから構成される。「判定使用」の欄は、警報発報に使用する異常事象の判定条件のうち監視員に通知する判定結果を求めるものに「O」が設定されている。   In FIG. 4, the determination conditions are “feature extraction method” (“algorithm”, “threshold”, “tracking point”) of the extraction operation parameter, and “event determination condition” (“measurement interval / distance”) of the detection operation parameter. “Measurement frequency”, “use of judgment”) and the like. In the “determination use” column, “O” is set for a determination result to be notified to the monitoring staff among the determination conditions of the abnormal event used for alarm notification.

事象検出部12は、車両の走行速度を特徴抽出部11で抽出された追跡点LLが画面上を移動する速度を算出して求める。この車両速度の算出条件は、異常事象の判定条件のパラメータとなってログテーブルTLとテーブルTに設定されている。   The event detection unit 12 calculates the traveling speed of the vehicle by calculating the speed at which the tracking point LL extracted by the feature extraction unit 11 moves on the screen. The vehicle speed calculation condition is set in the log table TL and the table T as a parameter of the abnormal event determination condition.

ここで、交通状況は、例えば、「平常」と「低速」、「渋滞」の2つの異常事象に分類され、異常事象の判定条件の例は下記の通りである。   Here, the traffic situation is classified into, for example, two abnormal events of “normal”, “low speed”, and “traffic jam”, and examples of conditions for determining abnormal events are as follows.

(低速判定条件)
以下のいずれかの条件を満足するものである。
1)平均車速が40km/h以下の時。
2)20m以上の区間で算出した速度の変化率が50%以上の時。
(Low speed judgment condition)
One of the following conditions is satisfied.
1) When the average vehicle speed is 40 km / h or less.
2) When the rate of change of speed calculated in the section of 20m or more is 50% or more.

(渋滞判定基準)
以下の条件を満たすもの。
1)平均速度が40km/h以下でかつ集計時間5分の交通量が25台以上の時。
2)交通密度が一定値40台/km/h車線以上の時。
3)車群速度が一定値40km/h以下の時。
で定義される。
(Congestion criteria)
Those that satisfy the following conditions.
1) When the average speed is 40 km / h or less and the traffic volume for 5 minutes is 25 or more.
2) When the traffic density is above a certain value of 40 cars / km / h lane.
3) When the vehicle group speed is a constant value of 40 km / h or less.
Defined by

交通状況の異常事象の判定条件は以上の複数からなるものの組合せがあるが、以下の本発明の実施例においては、カメラ監視システムの動作の説明を「渋滞」の判定基準の3)項のみを取り上げて異常事象判定の手順を説明する。   The conditions for judging abnormal events in the traffic situation include a combination of the above, but in the following embodiments of the present invention, the description of the operation of the camera monitoring system is limited to only the item 3) of the criteria for judging “congestion”. The procedure for determining abnormal events will be described.

図5は、監視モニタ21における表示画面と車両の走行速度の測定方法を説明する図である。   FIG. 5 is a diagram for explaining a display screen on the monitoring monitor 21 and a method for measuring the traveling speed of the vehicle.

監視モニタ21の画面で、2車線ある高速道路上を車両は、左から右に向かって走行する。2車線のうち第1車線は、画面下半分、第2車線は画面上半分に表示される。走行車両が画面に写っていないとき、画面上に枠、追跡ゲートTGbは、表示されない。   On the screen of the monitoring monitor 21, the vehicle travels from left to right on a two-lane highway. Of the two lanes, the first lane is displayed in the lower half of the screen and the second lane is displayed in the upper half of the screen. When the traveling vehicle is not shown on the screen, the frame and the tracking gate TGb are not displayed on the screen.

第1車線を画面左から車両が走行して、画面の中に車両が入ると前記の手順で追跡ゲートTGbが生成されて監視モニタ21の画面に表示されると特徴抽出部11は、事象検出部12にロックオン信号を送信する。そして、事象検出部12は追跡点LLが画面上を移動する速度の算出を開始する。画面上の上下左右方向の追尾点LLの移動速度は、画面上の位置座標が道路上の位置と対応して車両の走行速度と換算するように校正されている。   When the vehicle travels from the left side of the screen in the first lane and enters the screen, the tracking gate TGb is generated and displayed on the screen of the monitoring monitor 21 according to the above procedure. A lock-on signal is transmitted to the unit 12. Then, the event detection unit 12 starts calculating the speed at which the tracking point LL moves on the screen. The moving speed of the tracking point LL in the vertical and horizontal directions on the screen is calibrated so that the position coordinates on the screen correspond to the position on the road and converted to the traveling speed of the vehicle.

事象検出部12は、テーブルTの事象判定条件を参照して車両の走行速度を算出する。   The event detection unit 12 calculates the traveling speed of the vehicle with reference to the event determination conditions in the table T.

例えば、図5において、画面上のx1点とx2点が道路上の100mに相当する距離とする場合、その区間をロックオンされた追尾点LLが10秒間で通過したとすれば、特徴抽出部11は、時速36km/hを算出する。また、画面のx1点とx3点が道路距離25mに相当すると、5秒間でその間を追尾点LLが移動したとすれば時速は18km/hである。   For example, in FIG. 5, when the x1 point and the x2 point on the screen have a distance corresponding to 100 m on the road, if the tracking point LL locked on the section passes in 10 seconds, the feature extraction unit 11 calculates 36 km / h. Further, if the x1 point and the x3 point on the screen correspond to a road distance of 25 m, if the tracking point LL moves between them in 5 seconds, the speed is 18 km / h.

また、更に画面のx4点とx2点が同じく25mに相当すると、その区間を追尾点LLが2秒間で移動したとすれば時速は45km/hである。   Further, if the x4 point and the x2 point on the screen correspond to 25 m, if the tracking point LL moves in that section in 2 seconds, the speed is 45 km / h.

事象検出部12は、この追尾点LLの移動速度から算出した車両の走行速度を判定部13に送信し、判定部13は、走行速度から交通状況、異常事象がどの様なレベルのもので有るかを弁別して判定する。   The event detection unit 12 transmits the traveling speed of the vehicle calculated from the moving speed of the tracking point LL to the determination unit 13, and the determination unit 13 has a traffic situation and an abnormal event at any level from the traveling speed. Judgment is made by discrimination.

ところで、この各区間での車両の走行速度の測定結果(以下、車速データと呼ぶ。)を、交通状況(異常事象)の車群速度として判定に使用するが、車両の走行速度の測定方法には、測定区間距離、測定頻度の組合せからなる判定条件があるので、それに対応して幾つかの異なった測定結果が得られる。   By the way, the measurement result of the vehicle traveling speed in each section (hereinafter referred to as vehicle speed data) is used for determination as the vehicle group speed of the traffic situation (abnormal event). Since there is a determination condition consisting of a combination of measurement section distance and measurement frequency, several different measurement results can be obtained correspondingly.

即ち、車群とは、道路上を複数台の車が一塊になって連なって走行する場合、それらを車群と呼ぶ。しかし、厳密に車群を速度測定の単位として設定するのは難しく、以下の実施例では、次の動作パラメータでサンプリングした車両の平均時速を車群速度としている。   That is, a vehicle group is called a vehicle group when a plurality of vehicles travel in a lump on the road. However, it is difficult to strictly set the vehicle group as a unit of speed measurement, and in the following embodiments, the average hourly speed of the vehicle sampled with the following operation parameters is used as the vehicle group speed.

例えば、
(1)x1点とx2点との間での車速データを、5分間隔で1回に10台連続して測定した結果の平均時速36km/hを平均時速データ(x1−x2)とする。
(2)x1点とx3点との間での車速データを、5分間隔で1回に10台連続して測定した結果の平均時速18km/hを平均時速データ(x1−x3)とする。
(3)x2点とx4点との間での車速データを、5分間隔で1回に10台連続して測定した結果の平均時速45km/hを平均時速データ(x2−x4)とする。
(4)x1点とx2点との間での車速データを、2分間隔で1回に5台連続して測定した結果の平均時速36km/hを平均時速データ(x1−x2)とする。
(5)x1点とx3点との間での車速データを、2分間隔で1回に5台連続して測定した結果の平均時速20km/hを平均時速データ(x1−x3)とする。
(6)x2点とx4点との間での車速データを、2分間隔で1回に5台連続して測定した結果の平均時速50km/hを平均時速データ(x2−x4)とする。
For example,
(1) The average speed of 36 km / h obtained as a result of measuring 10 vehicle speed data at the x1 and x2 points at a time at 5 minute intervals is defined as the average speed data (x1-x2).
(2) The average speed 18 km / h obtained as a result of continuously measuring 10 vehicle speed data between the x1 point and the x3 point at a time every 5 minutes is defined as the average hourly speed data (x1-x3).
(3) The average hourly speed of 45 km / h as a result of continuously measuring 10 vehicle speed data between the x2 point and the x4 point at a time at intervals of 5 minutes is defined as the average hourly speed data (x2-x4).
(4) The average speed of 36 km / h obtained as a result of measuring vehicle speed data between the x1 point and the x2 point at five consecutive times at 2-minute intervals is defined as the average hourly speed data (x1-x2).
(5) The average speed 20 km / h as a result of measuring vehicle speed data between the x1 point and the x3 point five consecutive times at intervals of 2 minutes is defined as the average hourly speed data (x1-x3).
(6) The average speed 50 km / h obtained as a result of measuring vehicle speed data between the x2 point and the x4 point five consecutive times at intervals of 2 minutes is defined as the average hourly speed data (x2-x4).

等の様に測定頻度、測定区間距離などのパラメータを変えると、通行量が変わったり、特にインターチェンジの様に道路にカーブや、合流箇所がある場合など測定条件が変わると車速データが異なって算出される。   If the parameters such as the measurement frequency and the measurement section distance are changed as in the case of, etc., the traffic volume will change, and especially if the measurement conditions change such as when there is a curve or junction at the road like an interchange, the vehicle speed data will be calculated differently Is done.

上記の例では、x1点は、インターチェンジの合流が終えた地点の付近であって、x2が合流終了地点から一番遠くにある。そこで、制御・通信部14から判定部13に映像監視区間の平均的な車速を得る為に(1)の100m区間での車速データ(ここでは、平均時速36km/h)を用いる設定にしたとする。   In the above example, the point x1 is near the point where the interchange merge ends, and x2 is the farthest from the merge end point. Therefore, in order to obtain the average vehicle speed of the video monitoring section from the control / communication unit 14 to the determination unit 13, the vehicle speed data in the 100m section (1) (here, the average speed of 36 km / h) is set to be used. To do.

判定部13は、この設定に従い車速が時速40km/h以下の速度なので「渋滞」の異常事象と判定し、制御・通信部14に「渋滞」を送信する。   Since the vehicle speed is 40 km / h or less according to this setting, the determination unit 13 determines that the “congestion” is an abnormal event and transmits “congestion” to the control / communication unit 14.

制御・通信部14は、「渋滞」の異常事象の警報と、(1)の測定条件を車速データの判定条件に設定したことと、上記(1)〜(6)の車速データをネットワーク3を介して、監視センター2のデータサーバ25と制御部24に送信する。そして、データサーバ25では、これらの判定条件、車速データ、および警報等を時刻情報(以下、タイムタグと称する。ここでは、XX年OO月12時10分30秒とする。)とともにログテーブルTLに記憶する。   The control / communication unit 14 alerts the abnormal event of “traffic jam”, sets the measurement condition of (1) as the determination condition of the vehicle speed data, and transmits the vehicle speed data of (1) to (6) above to the network 3. To the data server 25 and the control unit 24 of the monitoring center 2. In the data server 25, these determination conditions, vehicle speed data, warnings, and the like are time information (hereinafter referred to as a time tag. Here, XX year OO month 12:10:30) and the log table TL. To remember.

図6は、ログテーブルTLの一例の図である。   FIG. 6 is a diagram of an example of the log table TL.

図6(a)において、評価の欄は、監視員が発報された警報(判定部13が判定した異常事象)を「正検出」、「誤検出」、「未検出」で評価した結果が記憶される。また、上記(1)以外の判定条件(2)〜(6)に付いても、制御部24が、(1)に対する評価結果と照合して、その判定条件による判定結果に対して監視員が評価すると推定した評価内容が記憶される。(図6のログテーブルTLでは括弧で表示されている。)
ところで、監視センター2では、制御部24が「渋滞」をネットワーク3を介して受信すると、監視モニタ21がカメラ4の映像を映し出し「渋滞」の警報を監視モニタ21の画面上に表示する制御を行う。
In FIG. 6A, the evaluation column shows the result of evaluating the alarm (abnormal event determined by the determination unit 13) issued by the monitor by “correct detection”, “false detection”, and “not detected”. Remembered. In addition, even when the determination conditions (2) to (6) other than the above (1) are attached, the control unit 24 collates with the evaluation result for (1), and a monitor is assigned to the determination result based on the determination condition. Evaluation contents estimated to be evaluated are stored. (In the log table TL in FIG. 6, it is displayed in parentheses.)
By the way, in the monitoring center 2, when the control unit 24 receives “traffic jam” via the network 3, the monitoring monitor 21 displays the video of the camera 4 and displays a “traffic jam” alarm on the screen of the monitoring monitor 21. Do.

監視センターでは、車速データについて映像監視以外の方法により、例えば、スピード測定レーダにより車速を直接測定したデータを交通情報システムから取得しているか、又は、数km以上離れたサービスエリア、またはインターチェンジ近くに設置した2つの監視カメラの映像から走行車両のナンバープレートの文字を読み取り、その車両の走行速度を測定した交通情報等が入手できれば、それらは、異常事象の判定に利用可能である。この様な場合、監視員は、警報を受信すると上記情報を参照してモニタ21の画面上の車両の混み具合、移動速度を経験的に読み取り「平常」、「渋滞」等の判定をしている。   In the monitoring center, data obtained by directly measuring the vehicle speed by speed measurement radar is acquired from the traffic information system by a method other than video monitoring for the vehicle speed data, or in a service area that is several kilometers away or near an interchange. If traffic information and the like obtained by reading the characters on the license plate of the traveling vehicle from the images of the two installed monitoring cameras and measuring the traveling speed of the vehicle can be obtained, they can be used to determine an abnormal event. In such a case, when an alarm is received, the monitoring person refers to the above information and empirically reads the degree of congestion of the vehicle on the screen of the monitor 21 and the moving speed, and determines “normal”, “congestion”, and the like. Yes.

しかし、画像処理装置以外車両の速度を知る手段が無い場合には、監視モニタ21の映像だけから監視員の経験的感覚に基づき、「平常」、「渋滞」等の判定が行われる。従って、判定には誤差が含まれ、特に「渋滞」については「渋滞」と判定する為に必要な車両密度等の諸データが他の交通情報システム等から入手できないので、「渋滞」の判定は、監視員の経験的感覚に依存せざるを得ない。しかし、判定部13が行った判定結果と監視員の判定による評価との整合性を改善する(正答率が向上する)ことが、本発明の実施例のカメラ監視システムでは以下の如く可能である。   However, if there is no means for knowing the speed of the vehicle other than the image processing apparatus, “normal”, “traffic jam”, and the like are determined based on the experience of the observer from only the video of the monitoring monitor 21. Therefore, the judgment includes errors, especially for “congestion”, because various data such as vehicle density necessary for judging “congestion” cannot be obtained from other traffic information systems, etc. I have to rely on the experience of the observer. However, in the camera monitoring system of the embodiment of the present invention, it is possible to improve the consistency between the determination result made by the determination unit 13 and the evaluation based on the determination by the monitoring staff (the correct answer rate is improved) as follows. .

まず、監視員が、ナンバープレートを読み出した車両の走行データで作成された交通情報の時速80km/hを参照して監視カメラ4がインターチェンジの交通状況を目視して、「平常」と判定したとする。カメラ監視システムでは、上記の(1)の車速データを用いて「渋滞」と判定しているので監視員は、カメラ監視システムの判定結果が誤っていると評価して操作卓22の評価スイッチ23から「誤検出」の評価結果を入力する。「誤検出」の評価結果は、データサーバ25のログテーブルTLにタイムタグ(ここでは、XX年OO月12時10分30秒とする。)とともに記憶される。   First, the surveillance staff refers to the traffic information of 80 km / h in the traffic information created from the driving data of the vehicle from which the license plate is read, and the surveillance camera 4 visually determines the traffic condition of the interchange and determines that it is “normal”. To do. In the camera monitoring system, the vehicle speed data of the above (1) is used to determine “congestion”. Therefore, the monitoring staff evaluates that the determination result of the camera monitoring system is incorrect and evaluates the evaluation switch 23 on the console 22. Enter the evaluation result of “false positive”. The evaluation result of “false detection” is stored in the log table TL of the data server 25 together with a time tag (here, XX year OO month 12:10:30).

反対に、監視員がカメラ監視システムから「渋滞」等の警報がないときに、「渋滞」と判定した場合には、監視員は評価スイッチ23から「未検出」を入力し、その評価結果「未検出」がログテーブルTLに記憶される。また、カメラ監視システムが「渋滞」の警報を通知した時に監視員も同じく「渋滞」と判断すれば、「正検出」の評価結果がログテーブルTLに記憶される。   On the other hand, when the monitoring person determines that the traffic is “congested” when there is no alarm such as “congested” from the camera monitoring system, the monitoring person inputs “not detected” from the evaluation switch 23 and the evaluation result “ “Not detected” is stored in the log table TL. When the camera monitoring system notifies the “traffic jam” alarm, if the monitor also determines “traffic jam”, the evaluation result of “correct detection” is stored in the log table TL.

このような画像処理部1から異常事象の通知(警報の発報)、または監視員が異常事象を判定した出来事を以下、”イベント”と呼ぶ。   Hereinafter, an abnormal event notification (warning) from the image processing unit 1 or an event in which the monitoring person determines an abnormal event is referred to as an “event”.

従来のカメラ監視システムでは、この「誤検出」の結果を監視員が、監視ノートや引き継ぎメモ等で記録するに留まっていた。そこで、車速データの判定基準などを最適値に設定する為のデータ取得や、動作パラメータ等を設定調整する効率や改善結果が不十分であった。   In the conventional camera monitoring system, the result of the “false detection” is only recorded by the monitor using a monitoring note or a takeover memo. Therefore, the data acquisition for setting the criterion for determining the vehicle speed data to the optimum value, the efficiency of setting and adjusting the operation parameters, and the improvement result have been insufficient.

しかし、本発明のカメラ監視システムでは、イベント毎のカメラ監視システムの動作パラメータや判定条件等と判定結果、評価結果がデータサーバ25のログテーブルTLにタイムタグとともに記憶されている。従って、過去に遡りイベント毎にタイムタグを参照して特徴抽出部11や事象検出部12の各種の動作のパラメータや、判定基準、判定結果と、監視員の評価結果を読み出して照合することによって、カメラ監視システムの動作が分析でき、その結果を基に「誤検出」や「未検出」時の動作パラメータ等を改良する調整が出来る。   However, in the camera monitoring system of the present invention, the operation parameters and determination conditions of the camera monitoring system for each event, the determination result, and the evaluation result are stored in the log table TL of the data server 25 together with the time tag. Accordingly, by referring to the time tag for each event going back in the past, various operation parameters of the feature extraction unit 11 and the event detection unit 12, the determination criteria, the determination result, and the evaluation result of the supervisor are read out and collated. The operation of the camera monitoring system can be analyzed, and based on the result, adjustments can be made to improve the operation parameters at the time of “false detection” or “not detected”.

このデータ等の読み出し、調整は、カメラ監視システムの監視員や、整備技術者が、例えば、操作卓22のキーボードと監視モニタ21とを用いてデータサーバ25からカメラ映像情報、およびログテーブルTLに記憶されたデータを読み出し、分析する。そして、それらのデータによって、制御部24に画像処理部1の各構成要素を制御する各判定条件等のデータや動作パラメータを改めて設定し、制御部24を介して画像処理部1の各構成要素を制御するデータを制御通信部14に送信して各種の画像処理動作を調整する。   For example, a monitor or a maintenance engineer of the camera monitoring system can read out and adjust the data from the data server 25 to the camera video information and the log table TL using the keyboard of the console 22 and the monitoring monitor 21, for example. Read and analyze the stored data. Based on these data, data such as each determination condition and operation parameters for controlling each component of the image processing unit 1 are set again in the control unit 24, and each component of the image processing unit 1 is set via the control unit 24. Is transmitted to the control communication unit 14 to adjust various image processing operations.

また、さらにその調整等は、制御部24に予めプログラムを組み込むことにより、制御部24が各種のパラメータを設定することも出来る。   Further, for the adjustment and the like, the control unit 24 can set various parameters by incorporating a program in the control unit 24 in advance.

(異常事象判定条件パラメータの変更)
以下制御部24がデータサーバ25のログテーブルTLからデータを取得し、画像処理部1の処理動作を制御する動作について説明する。
(Change of abnormal event judgment condition parameter)
Hereinafter, an operation in which the control unit 24 acquires data from the log table TL of the data server 25 and controls the processing operation of the image processing unit 1 will be described.

図7は、事象判定条件のパラメータの変更を説明するフローチャートである。   FIG. 7 is a flowchart for explaining the change of the parameter of the event determination condition.

制御部24は、データサーバ25のログテーブルTLに異常事象の判定条件と判定結果、および監視員の評価、テーブルTがリストしている判定条件候補、および車速等画像処理データを受信してタイムタグとともに記憶する(ステップ1)。   The control unit 24 receives image processing data such as determination conditions and determination results of abnormal events, evaluations of monitoring personnel, determination condition candidates listed in the table T, and vehicle speed and the like in the log table TL of the data server 25, and the time Store with tag (step 1).

上記説明では、判定条件(1)を採用しており「渋滞」の異常事象と判定して警報を発報したが、それを受けた監視員は「誤検出」の判定を下している。従って、制御部24は、「渋滞」の判定条件である時速40km/h以下と算出結果が出た判定条件を、監視員が「誤検出」評価すると推定する(ステップ2)。判定条件(3)と(6)以外に「誤検出」の推定結果をログテーブルTLの「評価」欄に記憶する(ステップ3)。   In the above description, the determination condition (1) is adopted and it is determined as an abnormal event of “traffic jam”, and an alarm is issued. However, the monitoring person who receives it has determined “false detection”. Therefore, the control unit 24 estimates that the determination condition that the calculation result is 40 km / h or less, which is the determination condition for “congestion”, is evaluated by the monitor as “false detection” (step 2). In addition to the determination conditions (3) and (6), the estimation result of “false detection” is stored in the “evaluation” column of the log table TL (step 3).

そして、制御部24は、ログテーブルTLを参照して、次回以降の判定条件の選定する制御を行う。   Then, the control unit 24 refers to the log table TL and performs control for selecting determination conditions for the next and subsequent times.

例えば、判定部13のテーブルTに、推定された評価も含めて最新のイベントに対して「正検知」が得られた異常事象判定条件を次回の事象判定に採用する様に設定がなされていれば(ステップ4がYes)、監視員がイベントに対して「正検出」でない(「誤検出」または、「未検出」)と評価した場合、制御部24は、ログテーブルTLを参照して「正検出を」行った判定条件(ここでは、(3)とする。)を探し出して(3)を次回からの判定条件にする(ステップ5)。   For example, the table T of the determination unit 13 is set so that the abnormal event determination condition for which “correct detection” is obtained for the latest event including the estimated evaluation is adopted for the next event determination. If the monitor evaluates that the event is not “correct detection” (“false detection” or “not detected”), the control unit 24 refers to the log table TL as “ The determination condition (in this case, (3)) for which “correct detection” has been performed is found, and (3) is set as the determination condition from the next time (step 5).

またその他の、推定評価結果を統計処理するような判定条件の選定がなされていれば(ステップ4がNo)、制御部24は、イベント毎の監視員の評価結果と、そのイベントに対応する時の各判定条件とその推定評価結果を統計処理し(ステップ6)、「正検出」に対応する回数が多い判定条件(ここでは、(6)とする。)をログテーブルTLから探し出し、次回以降の判定に、判定部13が判定条件(6)を用いる(ステップ7)ようにして、監視員の経験や、映像監視以外のシステムからの交通情報との整合性を高める判定条件を選択することもできる。   If other determination conditions for statistically processing the estimated evaluation result are selected (No in step 4), the control unit 24 determines the evaluation result of the observer for each event and the time corresponding to the event. Are statistically processed (step 6), and a determination condition (here, (6)) corresponding to “correct detection” is searched from the log table TL. In the determination, the determination unit 13 uses the determination condition (6) (step 7) to select a determination condition that enhances the consistency of the experience of the observer and traffic information from a system other than video monitoring. You can also.

また、カメラ監視システムの動作を詳細に調査するため、別途、統計的処理によって分析して判定条件を変更修正してもよい。例えば、カメラ監視システムの複数の判断条件から得られる判定結果(ここでは、「渋滞」とする。)と監視員の判定結果(ここでは「平常」の判断に基づく「誤判定」が評価結果であったとする。)とを集計して比較すると、複数の判定基準で「渋滞」の判定結果が多い結果が得られ、カメラ監視システムの判定結果が監視員のそれより妥当であると推定される場合、制御部24は、監視員の判定、評価を見直す勧告情報を監視モニタ24で表示して通報する様にしてもよい。   In addition, in order to investigate the operation of the camera monitoring system in detail, the determination condition may be changed and corrected separately by statistical analysis. For example, the evaluation result is a judgment result obtained from a plurality of judgment conditions of the camera monitoring system (here, “congestion”) and a judgment result of the surveillance staff (here, “false judgment” based on the judgment of “normal”). )), The results of the judgment result of “congestion” with many judgment criteria are obtained, and the judgment result of the camera monitoring system is estimated to be more appropriate than that of the observer. In this case, the control unit 24 may display and notify the recommendation information for reviewing the judgment and evaluation of the monitoring person on the monitoring monitor 24.

また、以上の説明では、予め判定条件は1つに選定されているが、複数の判定条件候補を設定しておき、その各判定条件候補による判定結果を集計して多数決を取った結果(ここでは、「渋滞」とする。)を選定して、監視員に「渋滞」を通知する判定結果とするようにしてもよい。   In the above description, one determination condition is selected in advance. However, a plurality of determination condition candidates are set, and the determination results of the respective determination condition candidates are totaled to obtain a majority decision (here. Then, “congestion” is selected), and a determination result for notifying the observer of “congestion” may be used.

この様に本発明の実施例のカメラ監視システムは、記憶した諸データを参照し、事象判定条件の設定を最適になる組合せを想定して変更設定し、正答率の向上を図ることが可能である。   As described above, the camera monitoring system according to the embodiment of the present invention can improve the correct answer rate by referring to the stored data and changing and setting the event determination condition assuming an optimum combination. is there.

(アルゴリズムの選択)
また更に、カメラ監視システムの正答率を向上するには、周囲の状況に応じて車両画像の抽出を行うアルゴリズムを選択することも有効である。以下に画像抽出のアルゴリズムを選択する動作手順について説明する。
(Select algorithm)
Furthermore, in order to improve the correct answer rate of the camera monitoring system, it is also effective to select an algorithm for extracting a vehicle image according to the surrounding situation. The operation procedure for selecting an image extraction algorithm will be described below.

図8は、特徴抽出のアルゴリズムを選択する動作手順について説明する動作を説明するフローチャートである。   FIG. 8 is a flowchart illustrating an operation for explaining an operation procedure for selecting a feature extraction algorithm.

本発明の実施例は、上記の説明の様に映像信号から車両画像を抽出するアルゴリズムに「背景差分」方法を用いている。このアルゴリズムは、車両画像の全体を取りだしているので、安定したトラッキングが可能であるので昼間は「背景差分」方法がデフォルトのアルゴリズムに採用されている。   The embodiment of the present invention uses the “background difference” method as an algorithm for extracting a vehicle image from a video signal as described above. Since this algorithm extracts the entire vehicle image, stable tracking is possible, so the “background difference” method is adopted as the default algorithm during the daytime.

しかし、「背景差分」方法は、図3(c)の様に夜間、または、昼間でも日中でも車体が中間色だと車体部分と背景部分とのビデオ信号のレベル差が小さくなり映像情報からの車体部分の抽出が困難になり車両画像をロックオン出来なくなったり、ランプの様に輝度が車体に比べて極端に高い輝点が車体画像にあると、車体の全体が抽出出来なくなる等の弱点を持つ。また、トレーラ等の大きな車体、または複数の車両が接近して連続して撮影されると追跡ゲートTGb内に1台の車体部分が全て収まらないので車体部分を映像情報から抽出出来ない場合も生じる。   However, in the “background difference” method, as shown in FIG. 3C, the level difference of the video signal between the vehicle body portion and the background portion becomes small when the vehicle body is an intermediate color at night or in the daytime or daytime. It is difficult to extract the part and it becomes impossible to lock on the vehicle image, and if the body image has a bright point that is extremely high in brightness compared to the vehicle body like a lamp, the whole vehicle body cannot be extracted. . In addition, when a large vehicle body such as a trailer or a plurality of vehicles are continuously photographed, one vehicle body part does not fit in the tracking gate TGb, so that the vehicle body part cannot be extracted from the video information. .

その様な場合は、車速の測定が行われずカメラ監視システムは異常事象を検出しないで「平常」と判定するので警報が送信されない(ステップs11)。そして、監視員が画面監視により異常事象と判定した結果に基づく評価が記録され、仮に「渋滞」と監視員が判定すると、「未検出」がタイムタグと共にログテーブルTLの「評価」に記憶される(ステップs12)。   In such a case, the vehicle speed is not measured, and the camera monitoring system determines “normal” without detecting an abnormal event, so no alarm is transmitted (step s11). Then, the evaluation based on the result of the monitor determined as an abnormal event by screen monitoring is recorded, and if the monitor determines “congestion”, “not detected” is stored in the “evaluation” of the log table TL together with the time tag. (Step s12).

この様に、特徴抽出がし難くなる撮影状況になると「未検出」の評価入力が多くなる。そこで制御部24は、予め想定した「未検出」の評価入力頻度、例えば、10分間に3回を超える(ステップs13がYes)とスレショルドレベルの設定を変更する(ステップs14)。   In this way, when the shooting situation is such that feature extraction is difficult, “undetected” evaluation inputs increase. Therefore, the control unit 24 changes the threshold level setting when the evaluation input frequency of “undetected” assumed in advance, for example, exceeds 3 times in 10 minutes (Yes in step s13) (step s14).

図6(b)は、「未検出」と評価された場合のログテーブルTLの1例である。   FIG. 6B is an example of the log table TL when it is evaluated as “not detected”.

例えば、背景レベルに近いスレショルドレベルGcに設定するか、ゲート中のもっともビデオ信号の振幅が大きい近いスレショルドレベルGbにするなどの画像の特性に合う様にパラメータ設定を変更して車両画像抽出の改善を図る。この設定変更を制御する信号は、制御部24からネットワーク3を介して画像処理部1の制御・通信部14に送信され、それを受信した制御・通信部14は、判定部13のテーブルTを参照して、特徴抽出部11に新しいパラメータ設定を行う。   For example, the vehicle image extraction is improved by changing the parameter setting to match the image characteristics such as setting the threshold level Gc close to the background level, or the threshold level Gb having the largest video signal amplitude in the gate. Plan. A signal for controlling the setting change is transmitted from the control unit 24 to the control / communication unit 14 of the image processing unit 1 through the network 3, and the control / communication unit 14 that receives the signal changes the table T of the determination unit 13. Referring to, a new parameter is set in the feature extraction unit 11.

本発明の実施例のカメラ監視システムは、車両部分の抽出のアルゴリズムとして車体の画像の一部分を検出する「エッジ検出」方法を特徴抽出部11に備えているので「背景差分」方法で車両部分の画像抽出がうまく行かない時は「エッジ検出」方法に変更して車両のトラッキングを行う。例えば、制御部24が「未検出」を所定の頻度以上、例えば、連続して3回受信(ステップs15がYes)してアルゴリズム変更を指示する信号を制御・通信部14に送信し、制御・通信部14が、特徴抽出部11に、「エッジ検出」方法を設定する(ステップs16)。   The camera monitoring system according to the embodiment of the present invention includes the “edge detection” method for detecting a part of the image of the vehicle body as the vehicle part extraction algorithm in the feature extraction unit 11. If image extraction fails, change to the “edge detection” method to track the vehicle. For example, the control unit 24 receives “not detected” at a predetermined frequency or more, for example, three times in succession (Yes in step s15) and transmits a signal instructing the algorithm change to the control / communication unit 14 to control / The communication unit 14 sets the “edge detection” method in the feature extraction unit 11 (step s16).

図9は、「エッジ検出」方法を説明する図である。   FIG. 9 is a diagram for explaining the “edge detection” method.

「エッジ検出」方法では、「背景差分」方法と異なり、予め車両を追跡するための待機ゲートgを画面上に設けておく。   In the “edge detection” method, unlike the “background difference” method, a standby gate g for tracking the vehicle is provided on the screen in advance.

即ち、車両の映像の背景は必ずしも一様でなく、また画面上には複数の車両が表示されるので、特定の車両の画像信号の抽出を容易にする為に、予め車両部分の画像部分付近のみ信号を取り出して処理する為の待機ゲートgを設定して待ち伏せし、その待機ゲートgの中に入った車両のエッジ(端部)を追尾(ロックオン、追跡)する。   That is, the background of the vehicle image is not necessarily uniform, and a plurality of vehicles are displayed on the screen. In order to facilitate the extraction of the image signal of a specific vehicle, the vicinity of the image portion of the vehicle portion in advance A standby gate g for extracting and processing only the signal is set and ambushed, and the edge (end) of the vehicle that has entered the standby gate g is tracked (locked on, tracked).

この待機ゲートgは、第1車線、および第2車線に走行車両が写り始める位置に置かれて待機する。また、そのサイズは、「大」、「中」、「小」が制御・通信部14によって設定される。   The standby gate g is placed at a position where the traveling vehicle starts to appear in the first lane and the second lane and waits. Also, the size is set by the control / communication unit 14 as “large”, “medium”, and “small”.

図9(a)は、監視モニタ21の画面における車両の形状表示の例である。   FIG. 9A is an example of a vehicle shape display on the screen of the monitoring monitor 21.

図9(b)は、水平走査線上のその車両表示部分のビデオ信号の振幅を表している。図9(c)は、そのビデオ信号を微分回路を通した時の振幅を表している。   FIG. 9B shows the amplitude of the video signal of the vehicle display portion on the horizontal scanning line. FIG. 9C shows the amplitude when the video signal passes through a differentiating circuit.

「エッジ検出法」では、特徴抽出部11は車両部分のビデオ信号の立ち上がり部分、もしくは、立ち下がり部分のビデオ信号を微分して車両の端(エッジ)の部分をパルス状のエッジ信号Ep1、Ep2として取り出して車両の端(エッジ)の部分を示す信号を生成する。「エッジ検出」方法は、車両の先頭の部分(正極性パルスのエッジ信号Ep1)、又は後尾の部分(負極性パルスのエッジ信号Ep2)のどちらか1カ所を取り出すので、ゲートも小さくて済む利点があるのでサイズをなるべく小さくしてトラッキングをする。   In the “edge detection method”, the feature extraction unit 11 differentiates the video signal of the rising or falling portion of the video signal of the vehicle portion to differentiate the end (edge) portion of the vehicle into pulsed edge signals Ep1 and Ep2. To generate a signal indicating an end portion of the vehicle. The “edge detection” method has an advantage that the gate can be made small because either one of the head portion (edge signal Ep1 of the positive pulse) or the rear portion (edge signal Ep2 of the negative pulse) is taken out. Since there is, keep the size as small as possible to track.

従って、走行車両が待機ゲートgに入り、エッジ信号を検出すると、そのエッジ付近のみにゲートが縮小するようにしてロックオンさせ、それ以降縮小した追跡ゲートTGeによって車両を追尾する。そして、そのエッジ信号のパルスが追跡ゲートTGeの中心に来るように車両映像の端部分のトラッキングを行う(ステップs17)。   Therefore, when the traveling vehicle enters the standby gate g and detects an edge signal, the gate is contracted to be reduced only in the vicinity of the edge, and the vehicle is tracked by the tracking gate TGe reduced thereafter. Then, tracking of the end portion of the vehicle image is performed so that the pulse of the edge signal comes to the center of the tracking gate TGe (step s17).

また、夜間ではヘッドライトやテールランプの様なポイント画像でもパルス信号、もしくは、非常にコントラスト差の大きい信号が得られるので、そのポイント画像の情報を用いてトラッキングするのには、「エッジ検出」方法が適している。   Also, at night, a pulse signal or a signal with a very large contrast difference can be obtained even in a point image such as a headlight or tail lamp. To track using the information of the point image, the “edge detection” method is used. Is suitable.

この車両部分を追尾する部分の選択は、エッジ信号のスレショルドを変更して行う。即ち、背景よりも明るく画面に写る車両の先頭部分は、正極性パルスのエッジ信号Ep1であるが、後尾部分は負極性エッジ信号Ep2になる。逆に、背景よりも暗く写る車両で有ればこれと反対の関係になる。背景と車両の部分の信号レベルは自動検出されて上記の関係を反映して、先頭部分かそれとも後尾部分を抽出するかが、システム調整時に予め設定される。また、この設定変更は、制御卓22のキーボード等の入力装置から、整備技術者や監視員が抽出部分を選択するコマンドを制御部24に入力して設定できるようにしてもよい。   The part for tracking the vehicle part is selected by changing the threshold of the edge signal. That is, the head portion of the vehicle that appears brighter than the background on the screen is the edge signal Ep1 of the positive pulse, but the rear portion is the negative edge signal Ep2. On the other hand, if the vehicle appears darker than the background, the relationship is reversed. The signal level of the background and the vehicle portion is automatically detected to reflect the above relationship, and whether the leading portion or the trailing portion is extracted is preset during system adjustment. Further, this setting change may be set by inputting a command for selecting an extraction portion to the control unit 24 by a maintenance engineer or a monitor from an input device such as a keyboard of the control console 22.

そして制御部24はそのコマンドをネットワーク3を介して画像処理部1の制御・通信部14に送信する。制御・通信部14から更にそのコマンドが特徴抽出部11に通知され、特徴抽出部11は、例えば、後尾部分を抽出している時に、スレショルドを負極性パルス検出から正極性パルス検出に変更すると後尾部分から先頭部分を抽出するように変更される。   The control unit 24 transmits the command to the control / communication unit 14 of the image processing unit 1 via the network 3. The command is further notified from the control / communication unit 14 to the feature extraction unit 11, and the feature extraction unit 11, for example, when extracting the tail portion, changes the threshold from negative pulse detection to positive pulse detection. Changed to extract the first part from the part.

特徴抽出部11からロックオン通知を受信するとそれ以降の事象検出部12で行われる車速データの取得の処理、動作は、「背景差分」方法の場合と同様に行われる。これらの諸設定は図3のテーブルTの条件(7)〜(12)に示されている。   When a lock-on notification is received from the feature extraction unit 11, the subsequent processing and operation for acquiring vehicle speed data performed by the event detection unit 12 are performed in the same manner as in the “background difference” method. These various settings are shown in conditions (7) to (12) of the table T in FIG.

この様に特徴抽出部11では、「背景差分」方法とともにカメラ4からの映像情報から「エッジ検出」方法によって車両画像情報を抽出出来るので、より車両画像の抽出が確実に行える画像抽出アルゴリズムを選択して的確なトラッキングを行い正答率を向上することが可能になる。また、車両画像の抽出方法は、先述の通りこの2つの方法以外の方法、アルゴリズムを用いてもよい。   In this manner, the feature extraction unit 11 can extract vehicle image information from the video information from the camera 4 together with the “background difference” method by the “edge detection” method, so that an image extraction algorithm that can more reliably extract the vehicle image is selected. Thus, accurate tracking can be performed and the correct answer rate can be improved. Further, as described above, methods and algorithms other than these two methods may be used as the vehicle image extraction method.

以上述べたように、本発明によるカメラ監視システムは、カメラの映像情報と、映像情報を処理して異常事象の判定を行う判定条件、画像信号処理アルゴリズム、動作パラメータ等のデータ、および異常事象の判定結果とを監視員がその判定に対して3種類の評価した結果とを比較照合出来るよう時刻情報と共にデータサーバに記憶する。   As described above, the camera monitoring system according to the present invention includes the video information of the camera, the determination condition for determining the abnormal event by processing the video information, the data of the image signal processing algorithm, the operation parameter, and the abnormal event. The determination result is stored in the data server together with the time information so that the monitor can compare and collate the three types of evaluation results for the determination.

そして、その記憶データと評価結果を照合して分析し、異常事象を正しく検出する様に判定条件、画像信号処理アルゴリズムおよび動作パラメータ等を調整、もしくは自動変更して正答率を上げることができる。   Then, the stored data and the evaluation result are collated and analyzed, and the correct condition rate can be increased by adjusting or automatically changing the determination condition, the image signal processing algorithm and the operation parameter so that the abnormal event is correctly detected.

本発明の実施例に係わるカメラ監視システムの1例の構成要素を示すブロック図。The block diagram which shows the component of an example of the camera monitoring system concerning the Example of this invention. 画像信号処理アルゴリズムの背景差分方法を説明する図。The figure explaining the background difference method of an image signal processing algorithm. 画像信号処理アルゴリズムの背景差分方法で2値化された車両画像の図。The figure of the vehicle image binarized with the background difference method of the image signal processing algorithm. 本発明の実施例に係わるカメラ監視システムの判定条件のリストのテーブルを示す図The figure which shows the table of the list | wrist of the judgment conditions of the camera monitoring system concerning the Example of this invention. 本発明の実施例に係わるカメラ監視システムの車両の走行速度の測定方法の1例を示す図。The figure which shows an example of the measuring method of the traveling speed of the vehicle of the camera monitoring system concerning the Example of this invention. 本発明の実施例に係わるカメラ監視システムの判定条件と動作データのログテーブルの図。The figure of the log table of the judgment conditions and operation data of the camera monitoring system concerning the Example of this invention. 本発明の実施例に係わるカメラ監視システムの異常事象の判定条件パラメータ変更手順を説明するフローチャート。6 is a flowchart for explaining a procedure for changing a determination condition parameter for an abnormal event in the camera monitoring system according to the embodiment of the present invention. 本発明の実施例に係わるカメラ監視システムの画像抽出アルゴリズムの変更手順を説明するフローチャート。The flowchart explaining the change procedure of the image extraction algorithm of the camera monitoring system concerning the Example of this invention. エッジ検出方法を説明する図。The figure explaining the edge detection method.

符号の説明Explanation of symbols

1 画像処理部
11 特徴抽出部
12 事象検出部
13 判定部
14 制御・通信部
2 監視センター
21 監視モニタ
22 操作卓
23 評価スイッチ
24 制御部
25 データサーバ
3 ネットワーク
4 カメラ
T テーブル
TL ログテーブル
DESCRIPTION OF SYMBOLS 1 Image processing part 11 Feature extraction part 12 Event detection part 13 Determination part 14 Control / communication part 2 Monitoring center 21 Monitoring monitor 22 Console 23 Evaluation switch 24 Control part 25 Data server 3 Network 4 Camera T Table TL Log table

Claims (9)

交通状況をカメラの映像情報によって監視するカメラ監視システムであって、
前記カメラ監視システムの動作を参照するための時刻情報を出力する時計手段と、
前記カメラの映像情報から車両の画像情報を抽出する抽出手段と、
その抽出された画像情報から交通状況に係わる異常事象情報を検出する検出手段と、
前記検出された異常事象情報から異常事象を弁別して判定する判定手段と、
前記判定された異常事象の判定結果を前記カメラ監視システムの監視員に通知する通知手段と、
前記監視員が前記通知された異常事象の判定結果を正しい正検出と評価したか、又は、異常事象が発生していないのに異常事象が発生した誤検出と評価したか、それとも異常事象が発生したのに異常事象が発生しなかった未検出と評価したかのうちいずれか1つの評価結果を入力する評価入力手段と、
前記映像情報と、前記画像情報と、前記異常事象情報と、前記判定手段が前記弁別して判定する判定条件と、前記異常事象の判定結果と、前記評価結果と、前記時刻情報とを記憶する記憶手段と、
前記各手段を監視制御する制御手段とを具備する
ことを特徴とするカメラ監視システム。
A camera monitoring system for monitoring traffic conditions by video information of a camera,
Clock means for outputting time information for referring to the operation of the camera monitoring system;
Extracting means for extracting vehicle image information from video information of the camera;
Detecting means for detecting abnormal event information related to traffic conditions from the extracted image information;
Determination means for discriminating and determining an abnormal event from the detected abnormal event information;
Notification means for notifying the camera monitoring system of the determination result of the determined abnormal event;
Whether the monitoring personnel evaluated the notified abnormal event determination result as correct positive detection, or evaluated it as a false detection that an abnormal event has occurred even though no abnormal event has occurred, or an abnormal event has occurred An evaluation input means for inputting any one of the evaluation results from the evaluation that the abnormal event did not occur but was not detected,
A storage for storing the video information, the image information, the abnormal event information, a determination condition determined by the determination means, the determination result of the abnormal event, the evaluation result, and the time information Means,
A camera monitoring system comprising control means for monitoring and controlling each of the means.
前記記憶手段は、
前記抽出手段の抽出動作パラメータ、前記検出手段の検出動作パラメータとからなる判定条件を記憶する第1のテーブルと、
前記第1のテーブルに記憶された判定条件に対応して、前記抽出された画像情報、前記検出された異常事象情報、前記判定手段が前記判定条件に基づき弁別して判定した異常事象の判定結果、前記評価結果、および時刻情報とを記憶する第2のテーブルを具備し、
前記制御手段は、
前記第1のテーブルを参照して前記判定手段に前記判定条件を設定し、
前記第2のテーブルの前記時刻情報を参照し、前記映像情報、前記設定された判定条件と、前記第2のテーブルが記憶する前記抽出された画像情報、前記検出された異常事象情報、前記異常事象の判定結果、前記評価結果とを照合する制御を行う
ことを特徴とする請求項1記載のカメラ監視システム。
The storage means
A first table for storing a determination condition including an extraction operation parameter of the extraction unit and a detection operation parameter of the detection unit;
Corresponding to the determination condition stored in the first table, the extracted image information, the detected abnormal event information, the determination result of the abnormal event determined by the determination means based on the determination condition, A second table for storing the evaluation result and time information;
The control means includes
Referring to the first table and setting the determination condition in the determination means;
Referring to the time information in the second table, the video information, the set determination condition, the extracted image information stored in the second table, the detected abnormal event information, the abnormality The camera monitoring system according to claim 1, wherein control is performed to collate an event determination result and the evaluation result.
前記第1のテーブルは、
前記抽出手段の第1の抽出動作パラメータと前記検出手段の第1の検出動作パラメータとの組合せによる第1の判定条件、および前記第1の抽出動作パラメータと前記第2の検出動作パラメータとの組合せによる第2の判定条件とを記憶し、
前記制御手段は、
前記判定手段が前記検出された異常事象を前記第1の判定条件により弁別して判定した第1の判定結果を、前記通知手段を介して前記監視員に通知するとともに前記第2のテーブルに記憶する制御と、
前記判定手段が前記検出された異常事象を前記第2の判定条件により弁別して判定した第2の判定結果を前記第2のテーブルに記憶する制御を行うことを特徴とする請求項2記載のカメラ監視システム。
The first table is:
A first determination condition based on a combination of the first extraction operation parameter of the extraction unit and the first detection operation parameter of the detection unit, and a combination of the first extraction operation parameter and the second detection operation parameter And the second determination condition by
The control means includes
A first determination result obtained by the determination unit discriminating and determining the detected abnormal event according to the first determination condition is notified to the monitor via the notification unit and stored in the second table. Control,
3. The camera according to claim 2, wherein the determination unit performs control to store a second determination result obtained by discriminating the detected abnormal event based on the second determination condition in the second table. Monitoring system.
前記画像情報の前記抽出手段は、
複数の画像処理アルゴリズムからなり、
前記第1のテーブルは、
前記画像処理アルゴリズム毎に1つ以上の抽出動作パラメータが記憶されていることを特徴とする請求項3記載のカメラ監視システム。
The means for extracting the image information includes:
It consists of multiple image processing algorithms,
The first table is:
4. The camera monitoring system according to claim 3, wherein one or more extraction operation parameters are stored for each image processing algorithm.
前記制御手段は、
前記評価入力手段から入力された評価結果と、前記監視員に通知した前記第1の判定結果を比較照合して前記正検出でなかった場合、更に前記第2の判定結果と前記入力された評価結果を比較して前記第2の判定結果が前記正検出に該当するものであれば、
次回の前記異常事象の前記監視員に通知する判定結果を得るための判定条件として、前記第1の判定条件から前記第2の判定条件に変更する制御を行うことを特徴とする請求項3記載のカメラ監視システム。
The control means includes
When the evaluation result input from the evaluation input means and the first determination result notified to the monitor are compared and collated, and the positive detection is not detected, the second determination result and the input evaluation If the result of comparing the second determination result corresponds to the positive detection,
The control for changing from the first determination condition to the second determination condition is performed as a determination condition for obtaining a determination result to be notified to the monitor of the next abnormal event. Camera surveillance system.
前記制御手段は、
前記評価入力手段から入力された評価結果が前記正検出でないと、前記第2のテーブルに記憶されている前記評価入力手段から入力された評価結果と、前記監視員に通知された前記第1の判定結果と、前記第2の判定結果との記録を過去に遡って統計処理し、
前期第2の判定結果の方が前記第1の判定結果よりも前記評価結果との合致率が良い場合、
次回以降の、前記監視員に通知する異常事象の判定結果を得るための判定条件を前記第1の判定条件から前記第2の判定条件に変更する制御を行うことを特徴とする請求項3記載のカメラ監視システム。
The control means includes
If the evaluation result input from the evaluation input means is not the positive detection, the evaluation result input from the evaluation input means stored in the second table and the first notified to the monitor Statistically process the record of the determination result and the second determination result retroactively,
If the second determination result in the previous period has a better match rate with the evaluation result than the first determination result,
4. The control for changing a determination condition for obtaining a determination result of an abnormal event to be notified to the monitoring person from the next time to the second determination condition from the first determination condition is performed. Camera surveillance system.
前記制御手段は、
前記判定条件の前記第1、または第2の検出動作パラメータを変更して、複数の判定条件候補を生成し、
前記第2のテーブルに記憶されている前記評価手段から入力された評価結果と、前記監視員に通知された前記第1の判定条件による判定結果、および前記複数の判定条件候補による複数の判定結果との記録結果を過去に遡り統計処理し、
前記全ての判定結果のうちから前記評価結果との合致率が最も良い判定条件を選択し、
次回以降の前記異常事象の判定は、前記第1の判定条件から前記選択された筆頭の判定条件に変更する制御を行う
ことを特徴とする請求項3記載のカメラ監視システム。
The control means includes
Changing the first or second detection operation parameter of the determination condition to generate a plurality of determination condition candidates;
The evaluation result input from the evaluation means stored in the second table, the determination result based on the first determination condition notified to the monitor, and the plurality of determination results based on the plurality of determination condition candidates The recorded results of
Select the determination condition with the best match rate with the evaluation result from all the determination results,
4. The camera monitoring system according to claim 3, wherein the determination of the abnormal event after the next time is performed by changing the first determination condition to the selected first determination condition.
前記制御手段は、
前記第1または第2の検出動作パラメータとの組合せを代えることにより、複数の判定条件候補を生成し、
前記第1の判定条件により判定した第1の判定結果と、
前記複数の判定条件候補により判定した各判定結果を集計した多数決による判定結果を前記異常事象の判定結果として選択して前記通知手段に送信する制御を行う
ことを特徴とする請求項3記載のカメラ監視システム。
The control means includes
A plurality of determination condition candidates are generated by changing a combination with the first or second detection operation parameter,
A first determination result determined according to the first determination condition;
4. The camera according to claim 3, wherein control is performed such that a determination result by majority vote obtained by aggregating the determination results determined by the plurality of determination condition candidates is selected as the determination result of the abnormal event and transmitted to the notification means. Monitoring system.
カメラと、
時計手段と、
前記カメラの映像情報から車両の画像情報を抽出する抽出手段と、
その抽出された画像情報から異常事象情報を検出する検出手段と、
前記検出された異常事象情報から異常事象を弁別して判定する判定手段と、
前記判定された異常事象の判定結果をカメラ監視システムの監視員に通知する通知手段と、
前記監視員が前記通知された異常事象の判定結果を正しい正検出と評価したか、又は、異常事象が発生していないのに異常事象が発生した誤検出と評価したか、それとも異常事象が発生したのに異常事象が発生しなかった未検出と評価したかのうちいずれか1つの評価結果を入力する評価入力手段と、
記憶手段と、
前記各手段を監視制御する制御手段とを具備した交通状況を監視するカメラ監視システムの監視制御方法であって、
前記抽出手段は、
前記記憶手段に記憶設定された抽出動作パラメータにより前記カメラの映像情報から前記画像情報を抽出し、
前記検出手段は、
前記記憶手段に記憶設定された検出動作パラメータにより前記抽出された画像情報から交通状況の異常事象情報を検出して前記判定手段に送信し、
前記判定手段は、
前記異常事象情報を受信すると前記記憶手段に記憶設定された判定条件とを照合して前記異常事象を弁別する判定を行い、
前記記憶手段は、
前記抽出手段の抽出動作パラメータと前記検出手段の検出動作パラメータと、前記各パラメータの組合せからなる前記異常事象の複数の判定条件の候補と、前記記憶された候補のうち少なくとも1つの判定条件によって前記判定手段が判定した判定結果と、前記判定結果のうち前記通知手段が前記監視カメラシステムの監視員に通知した判定結果と、前記評価入力手段から入力された評価結果と、前記時計手段から受信した時刻情報とを記憶し、
前記制御手段は、
前記候補のうち、1つを選択してその判定条件による判定結果を前記通知する制御を前記通知手段に行い、
前記通知を受信した監視員により前記評価入力手段から入力された前記評価結果を判読し、その評価結果が、前記正検出でない場合、前記記憶手段が記憶するデータを前記時刻情報を参照して読み出し、前記画像情報、前記異常事象情報、前記抽出動作パラメータ、および前記検出動作パラメータを検索し、
前記評価結果が前記正検出となる前記抽出動作パラメータと前記検出動作パラメータとの組合せの新たな判定条件を探し出した場合、次回以降の通知は前記新たな判定条件によって前記異常事象を弁別して判定した結果を通知する様に修正変更する制御を行う
ことを特徴とするカメラ監視システムの監視制御方法。
A camera,
Clock means;
Extracting means for extracting vehicle image information from video information of the camera;
Detecting means for detecting abnormal event information from the extracted image information;
Determination means for discriminating and determining an abnormal event from the detected abnormal event information;
Notifying means for notifying a camera monitoring system monitor of the determination result of the determined abnormal event;
Whether the monitoring personnel evaluated the notified abnormal event determination result as correct positive detection, or evaluated it as a false detection that an abnormal event has occurred even though no abnormal event has occurred, or an abnormal event has occurred An evaluation input means for inputting any one of the evaluation results from the evaluation that the abnormal event did not occur but was not detected,
Storage means;
A monitoring control method for a camera monitoring system for monitoring a traffic situation comprising a control means for monitoring and controlling each means,
The extraction means includes
The image information is extracted from the video information of the camera by the extraction operation parameter stored and set in the storage means,
The detection means includes
Detecting abnormal event information of traffic conditions from the extracted image information by the detection operation parameter stored and set in the storage means, and transmitting to the determination means,
The determination means includes
When the abnormal event information is received, the determination is made by comparing the determination condition stored in the storage means and discriminating the abnormal event,
The storage means
The extraction operation parameter of the extraction means, the detection operation parameter of the detection means, a plurality of determination conditions candidates for the abnormal event comprising a combination of the parameters, and at least one determination condition among the stored candidates The determination result determined by the determination means, the determination result of the determination result notified to the monitoring camera system by the notification means, the evaluation result input from the evaluation input means, and the clock means received Remember time information,
The control means includes
Control the notification means to select one of the candidates and notify the determination result based on the determination condition,
The evaluation result input from the evaluation input unit is read by the monitoring person who has received the notification, and when the evaluation result is not the correct detection, the data stored in the storage unit is read with reference to the time information Searching for the image information, the abnormal event information, the extraction operation parameter, and the detection operation parameter;
When a new determination condition for the combination of the extracted operation parameter and the detected operation parameter whose evaluation result is the positive detection is found, the next notification is determined by discriminating the abnormal event based on the new determination condition. A monitoring control method for a camera monitoring system, characterized in that control is performed to modify and change so as to notify a result.
JP2003415177A 2003-12-12 2003-12-12 Camera monitoring system and its monitoring control method Pending JP2005176077A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003415177A JP2005176077A (en) 2003-12-12 2003-12-12 Camera monitoring system and its monitoring control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003415177A JP2005176077A (en) 2003-12-12 2003-12-12 Camera monitoring system and its monitoring control method

Publications (1)

Publication Number Publication Date
JP2005176077A true JP2005176077A (en) 2005-06-30

Family

ID=34734761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003415177A Pending JP2005176077A (en) 2003-12-12 2003-12-12 Camera monitoring system and its monitoring control method

Country Status (1)

Country Link
JP (1) JP2005176077A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350568A (en) * 2005-06-14 2006-12-28 Toyota Motor Corp Vehicle control system
KR100989081B1 (en) 2008-08-11 2010-10-25 한국전자통신연구원 System and method for event surveillancing by using network camera
KR101050452B1 (en) 2011-02-21 2011-07-19 주식회사 넥스파시스템 Taxi enforcement system, method using the same and recording medium thereof
JP2013101010A (en) * 2011-11-08 2013-05-23 Mic Ware:Kk Driving support system, and program
WO2020136761A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and program
CN116204371A (en) * 2022-12-13 2023-06-02 远峰科技股份有限公司 Monitoring method and device for camera image data stream

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350568A (en) * 2005-06-14 2006-12-28 Toyota Motor Corp Vehicle control system
KR100989081B1 (en) 2008-08-11 2010-10-25 한국전자통신연구원 System and method for event surveillancing by using network camera
KR101050452B1 (en) 2011-02-21 2011-07-19 주식회사 넥스파시스템 Taxi enforcement system, method using the same and recording medium thereof
JP2013101010A (en) * 2011-11-08 2013-05-23 Mic Ware:Kk Driving support system, and program
WO2020136761A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and program
JPWO2020136761A1 (en) * 2018-12-26 2021-11-11 日本電気株式会社 Information processing equipment, information processing methods, and programs
JP7151787B2 (en) 2018-12-26 2022-10-12 日本電気株式会社 Information processing device, information processing method, and program
US11763561B2 (en) 2018-12-26 2023-09-19 Nec Corporation Information processing apparatus, information processing method, and program
CN116204371A (en) * 2022-12-13 2023-06-02 远峰科技股份有限公司 Monitoring method and device for camera image data stream
CN116204371B (en) * 2022-12-13 2023-11-24 远峰科技股份有限公司 Monitoring method and device for camera image data stream

Similar Documents

Publication Publication Date Title
KR101095528B1 (en) An outomatic sensing system for traffic accident and method thereof
US11380105B2 (en) Identification and classification of traffic conflicts
US20220270376A1 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
US20240046653A1 (en) Identifying suspicious entities using autonomous vehicles
US7630515B2 (en) Method of and apparatus for setting image-capturing conditions, and computer program
US20190172345A1 (en) System and method for detecting dangerous vehicle
KR101921168B1 (en) Traffic violation managing system
US8301577B2 (en) Intelligent monitoring system for establishing reliable background information in a complex image environment
KR102163208B1 (en) Hybrid unmanned traffic surveillance system, and method thereof
CN110588512A (en) Dangerous driving identification and early warning device, method and system
CN108932849B (en) Method and device for recording low-speed running illegal behaviors of multiple motor vehicles
CN110288823B (en) Traffic violation misjudgment identification method based on naive Bayesian network
KR102332517B1 (en) Image surveilance control apparatus
KR101828271B1 (en) Traffic management system and method thereof
KR100690279B1 (en) Multipurpose video image detection system
CN106448161A (en) Road monitoring method and road monitoring device
WO2018209470A1 (en) License plate identification method and system
JP2005176077A (en) Camera monitoring system and its monitoring control method
JP5780979B2 (en) Vehicle state detection device, vehicle behavior detection device, and vehicle state detection method
CN109344829A (en) A kind of Train number recognition method and device of High Speed Railway Trains
Saha et al. Development of an automated red light violation detection system (RLVDS) for Indian vehicles
CN117058634A (en) Expressway scene self-adaptive traffic offence behavior identification method
CN106530711A (en) Video image intelligent traffic analysis method for high-speed vehicle
CN104408942A (en) Intelligent vehicle speed measuring device and method
CN101540102A (en) Device and method for detecting vehicle illegal road occupation

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606