JP4613230B2 - Moving object monitoring device - Google Patents

Moving object monitoring device Download PDF

Info

Publication number
JP4613230B2
JP4613230B2 JP2008189268A JP2008189268A JP4613230B2 JP 4613230 B2 JP4613230 B2 JP 4613230B2 JP 2008189268 A JP2008189268 A JP 2008189268A JP 2008189268 A JP2008189268 A JP 2008189268A JP 4613230 B2 JP4613230 B2 JP 4613230B2
Authority
JP
Japan
Prior art keywords
moving object
video
feature
monitoring
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008189268A
Other languages
Japanese (ja)
Other versions
JP2010028594A (en
Inventor
雅則 三好
達彦 影広
誠人 数井
誠也 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008189268A priority Critical patent/JP4613230B2/en
Priority to CN2009101646161A priority patent/CN101651824B/en
Publication of JP2010028594A publication Critical patent/JP2010028594A/en
Application granted granted Critical
Publication of JP4613230B2 publication Critical patent/JP4613230B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視領域に設置されたカメラを用いて人間や自動車など移動物体を監視する装置に関する。   The present invention relates to an apparatus for monitoring a moving object such as a person or a car using a camera installed in a monitoring area.

犯罪発生率の増加など社会不安に対処するために、不審者や不審車両を監視することを目的としたカメラの設置台数が増加している。多数のカメラを用いた監視では、監視領域を限られた監視員リソースで効率的に監視するための監視支援技術が必要になる。   In order to deal with social unrest, such as the increase in crime rates, the number of cameras installed for the purpose of monitoring suspicious persons and suspicious vehicles is increasing. Monitoring using a large number of cameras requires monitoring support technology for efficiently monitoring the monitoring area with limited monitoring personnel resources.

このような監視支援技術として、特開2006−146378号公報(特許文献1)に示されている「複数カメラを用いた監視システム」がある。ここでは、多数の監視カメラの映像を監視センタで集中監視するシステム構成において、監視員の負担を軽減する技術が開示されている。各カメラで撮影した映像から、画像認識技術を用いて移動物体を抽出し、その移動物体をカメラ間で照合する。そして、移動体の移動軌跡に基づいて、異常行動を判定しアラームを出力する。この技術により、監視員は多数の監視映像を注視することなく、容易に不審者を監視できるようになる。   As such a monitoring support technique, there is a “monitoring system using a plurality of cameras” disclosed in JP-A-2006-146378 (Patent Document 1). Here, there is disclosed a technique for reducing the burden on a supervisor in a system configuration in which videos of a large number of surveillance cameras are centrally monitored at a surveillance center. A moving object is extracted from video captured by each camera using image recognition technology, and the moving object is collated between the cameras. Based on the movement trajectory of the moving body, the abnormal behavior is determined and an alarm is output. With this technology, the monitor can easily monitor a suspicious person without gazing at a large number of monitoring images.

特開2006−146378号公報JP 2006-146378 A

上記従来技術では、監視現場で撮影した映像をセンタに蓄積することを前提とし、そのセンタに蓄積された映像データベース(DB)から特徴量を抽出し、人物追跡を行っていた。   In the above prior art, on the premise that the video shot at the monitoring site is stored in the center, the feature amount is extracted from the video database (DB) stored in the center and the person is tracked.

しかしながら、監視現場で撮影した映像をセンタに伝送するために用いるネットワークの伝送容量の制約により、センタに蓄積される映像のフレームレートを高くはできない。このため、動き特徴のような高周波特徴をセンタ側では算出できず、追跡に用いることができない。したがって、追跡性能に限界があった。   However, the frame rate of the video stored in the center cannot be increased due to the limitation of the transmission capacity of the network used for transmitting the video taken at the monitoring site to the center. For this reason, high-frequency features such as motion features cannot be calculated on the center side and cannot be used for tracking. Therefore, the tracking performance has a limit.

本発明の目的は、センタに蓄積する映像のフレームレートを上げないで、動き特徴のような高周波特徴を用いた追跡ができる移動物体監視装置を提供することである。   An object of the present invention is to provide a moving object monitoring apparatus that can perform tracking using high-frequency features such as motion features without increasing the frame rate of video stored in the center.

前記目的を達成するために、装置全体は、ネットワークで接続された少なくとも一つの監視現場と監視センタで構成される。監視現場は、カメラで撮影した映像を取得する映像取得部と、取得した映像中の移動物体を抽出する移動物体抽出部と、抽出した移動物体に対する特徴量の算出処理の分担を定める処理分担表と、処理分担表に従って移動物体の高周波特徴量を算出する高周波特徴算出部と、処理分担表に従って監視センタに送信する映像の伝送レートを決定し、そのレートで映像を伝送する映像選択部を備える。監視センタは、伝送映像選択部によって伝送された映像を蓄積する映像DBと、高周波特徴算出部が算出した特徴量を格納する特徴量DBと、特徴量DBで未算出の特徴を算出する低周波特徴算出部を備える。   In order to achieve the object, the entire apparatus is composed of at least one monitoring site and a monitoring center connected by a network. The monitoring site includes a video acquisition unit that acquires video captured by a camera, a moving object extraction unit that extracts a moving object in the acquired video, and a processing allocation table that determines the sharing of feature amount calculation processing for the extracted moving object A high-frequency feature calculating unit that calculates a high-frequency feature amount of the moving object according to the processing allocation table, and a video selection unit that determines a transmission rate of the video to be transmitted to the monitoring center according to the processing allocation table and transmits the video at the rate. . The monitoring center includes a video DB that stores the video transmitted by the transmission video selection unit, a feature DB that stores the feature calculated by the high-frequency feature calculator, and a low-frequency that calculates an uncalculated feature using the feature DB. A feature calculation unit is provided.

本発明によれば、ネットワークを伝送する映像データを増やさずに、センタ側で高周波特徴を利用できる。これにより、精度良い移動物体の追跡が可能になる。   According to the present invention, the high frequency characteristics can be used on the center side without increasing the video data transmitted through the network. This makes it possible to track a moving object with high accuracy.

(実施の形態1)
以下では発明の実施の形態について、図を用いて詳細に説明する。
(Embodiment 1)
Hereinafter, embodiments of the invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態である移動物体監視装置全体の機能構成を示すブロック図である。   FIG. 1 is a block diagram showing a functional configuration of the entire moving object monitoring apparatus according to an embodiment of the present invention.

装置全体は、監視現場100と監視センタ102に大別される。そして、両者はネットワーク104で接続される。監視現場100は、監視の対象となる領域、およびその領域に設置した監視装置である。監視センタ102は、監視現場100の映像を監視員が監視する場所、およびその場所に設置したセンタ監視装置である。通常、監視現場100と監視センタ102は物理的に離れた場所となる。ネットワーク104は、LAN(ローカルエリアネットワーク),WAN(ワイドエリアネットワーク)等のコンピュータネットワークであり、データを相互にやり取りできる。   The entire apparatus is roughly divided into a monitoring site 100 and a monitoring center 102. Both are connected via the network 104. The monitoring site 100 is an area to be monitored and a monitoring device installed in the area. The monitoring center 102 is a place where the monitor monitors the video of the monitoring site 100 and a center monitoring apparatus installed at the place. Usually, the monitoring site 100 and the monitoring center 102 are physically separated from each other. The network 104 is a computer network such as a LAN (local area network) or a WAN (wide area network), and can exchange data with each other.

次に、監視現場100の構成要素について説明する。   Next, the components of the monitoring site 100 will be described.

カメラ106は、ネットワークカメラやビデオカメラなどの撮影装置である。監視領域全体を撮影できるように複数のカメラを設置する。カメラの設置密度は疎であっても密であっても構わない。   The camera 106 is a photographing device such as a network camera or a video camera. Multiple cameras are installed so that the entire surveillance area can be photographed. The camera installation density may be sparse or dense.

映像取得部108は、カメラ106で撮影した映像を取得する。カメラ106がネットワークカメラの場合は、ネットワーク経由ですでにデジタル化された画像データを一定の時間間隔で取得する。ビデオカメラの場合にはカメラより出力されるアナログ信号を取得した後で、このアナログ信号をデジタル信号に変換する。   The video acquisition unit 108 acquires video captured by the camera 106. When the camera 106 is a network camera, image data already digitized via the network is acquired at regular time intervals. In the case of a video camera, after obtaining an analog signal output from the camera, the analog signal is converted into a digital signal.

移動物体抽出部110は、映像取得部108が取得した映像データ中の移動物体を抽出する。移動物体の抽出には、例えば背景差分法を用いれば良い。背景差分法とは、移動物体が存在しない状態の映像データを背景として保存しておき、移動物体が映っている映像データとピクセル毎の輝度値の差分を求めることで、背景には存在しなかった移動物体の領域を求める方法である。背景差分法により、移動物体の有無とその個数、移動物体の領域に対する外接矩形が算出される。これらが、移動物体抽出部110の出力となる。   The moving object extraction unit 110 extracts moving objects from the video data acquired by the video acquisition unit 108. For example, the background subtraction method may be used to extract the moving object. The background subtraction method saves video data with no moving object as the background, and calculates the difference between the video data showing the moving object and the luminance value for each pixel. This is a method for obtaining a region of a moving object. By using the background subtraction method, the presence / absence and the number of moving objects and the circumscribed rectangle for the area of the moving object are calculated. These are the output of the moving object extraction unit 110.

高周波特徴算出部112は、処理分担表114に従って、移動物体抽出部110が抽出した移動物体に対する高周波特徴量を算出する。処理分担表114は、移動物体の複数の特徴量を算出する際に、監視現場100側と監視センタ102側のどちらで処理するのかを決定するテーブルである。このテーブルの詳細については後述する。特徴量は移動物体固有の特徴を現すベクトル量であり、移動物体の追跡等に用いる。特徴量として、色やテクスチャの特徴,形状の特徴,動きの特徴などが有る。例えば、移動物体の色の特徴として、下半身と上半身の最頻輝度値を用いれることができる。この場合、特徴量は二次元のベクトルとなる。   The high frequency feature calculation unit 112 calculates a high frequency feature amount for the moving object extracted by the moving object extraction unit 110 according to the processing assignment table 114. The process sharing table 114 is a table that determines whether to perform processing on the monitoring site 100 side or the monitoring center 102 side when calculating a plurality of feature amounts of a moving object. Details of this table will be described later. The feature amount is a vector amount representing a feature unique to the moving object, and is used for tracking the moving object. Features include color and texture features, shape features, and motion features. For example, the mode luminance values of the lower and upper bodies can be used as the color characteristics of the moving object. In this case, the feature quantity is a two-dimensional vector.

ここで、人間の色やテクスチャの特徴は、時間によって変化しない静的な特徴であり、算出には一枚の映像があれば十分である。すなわち、このような特徴は低周波特徴である。一方、人間の形状や動きの特徴は、時間によって変化する動的な特徴であり、算出には高いフレームレートの映像が必要となる。すなわち、このような特徴は、高周波特徴である。ここで、動きの特徴量としては、例えば、公知の立体高次局所自己相関特徴を利用することができる。立体高次局所自己相関特徴とは、顔画像認識などによく使われる高次局所自己相関特徴を時間方向に拡張した特徴であり、動画の特徴量を得ることができる。この特徴とは、画像を時系列に並べたボクセルデータ中の各点において251種類の局所的な自己相関特徴を計算し、ボクセルデータ全体にわたって積分することで得られる251次元のベクトル量である。   Here, the characteristics of human color and texture are static characteristics that do not change with time, and it is sufficient to have one image for calculation. That is, such a feature is a low frequency feature. On the other hand, the characteristics of human shape and movement are dynamic characteristics that change with time, and an image with a high frame rate is required for calculation. That is, such a feature is a high-frequency feature. Here, as the feature amount of motion, for example, a known three-dimensional higher-order local autocorrelation feature can be used. The three-dimensional higher-order local autocorrelation feature is a feature obtained by extending a higher-order local autocorrelation feature often used in face image recognition or the like in the time direction, and can obtain a feature amount of a moving image. This feature is a 251-dimensional vector quantity obtained by calculating 251 types of local autocorrelation features at each point in the voxel data in which images are arranged in time series and integrating over the entire voxel data.

高周波特徴算出部112が算出するのは、処理分担表114の高周波特徴である。算出した高周波特徴は、ネットワーク104を介して監視センタ102に伝送され、監視センタ102が備える特徴量DB116に格納する。特徴量DB116は、移動物体の特徴量を蓄積するデータベース(DB)であり、詳細については後述する。なお、算出した全ての高周波特徴を特徴量DB116に格納しても良い。また、後述する伝送映像選択部118が映像を伝送するタイミングに同期して特徴量DB116に格納しても良い。   The high frequency feature calculation unit 112 calculates the high frequency features of the processing assignment table 114. The calculated high-frequency feature is transmitted to the monitoring center 102 via the network 104 and stored in the feature value DB 116 provided in the monitoring center 102. The feature amount DB 116 is a database (DB) that accumulates feature amounts of moving objects, and details will be described later. Note that all the calculated high-frequency features may be stored in the feature amount DB 116. Further, the transmission video selection unit 118 (to be described later) may store it in the feature amount DB 116 in synchronization with the video transmission timing.

伝送映像選択部118は、映像取得部108で取得した映像データを、処理分担表114に従って監視センタ102側に送信する。ここでは、高周波特徴算出部112で算出する特徴を除く低周波特徴を算出するのに必要十分なフレームレートの映像を伝送し、結果を監視センタ102側の映像DB120に格納する。映像DB120の詳細は後述する。   The transmission video selection unit 118 transmits the video data acquired by the video acquisition unit 108 to the monitoring center 102 side according to the processing allocation table 114. Here, an image having a frame rate necessary and sufficient to calculate low-frequency features excluding features calculated by the high-frequency feature calculating unit 112 is transmitted, and the result is stored in the image DB 120 on the monitoring center 102 side. Details of the video DB 120 will be described later.

次に、監視センタ102の構成要素について説明する。   Next, components of the monitoring center 102 will be described.

映像DB120は、伝送映像選択部118で伝送された画像データを蓄積するデータベース(DB)である。画像データのフォーマットとしては、JPEG(Joint Photographic Experts Group),PNG(Portable Network Graphics)等一般的に利用されるものを利用すればよい。また、連続した静止画の代わりに動画データを格納しても構わない。この場合、MPEG(Moving Picture Experts Group)などのフォーマットを利用すればよい。   The video DB 120 is a database (DB) that stores the image data transmitted by the transmission video selection unit 118. As the format of the image data, a commonly used format such as JPEG (Joint Photographic Experts Group) or PNG (Portable Network Graphics) may be used. Further, moving image data may be stored instead of continuous still images. In this case, a format such as MPEG (Moving Picture Experts Group) may be used.

低周波特徴算出部122は、特徴量DB116に格納されている特徴量データと、映像DB120に含まれる低フレームレートの映像を用いて、移動物体抽出部110が抽出した移動物体に対する低周波特徴を算出する。ここで、低周波特徴とは、移動物体の追跡に必要な特徴の中で、高周波特徴算出部112で算出しなかった特徴のことである。低周波特徴の例としては、前述のように人間の色やテクスチャの特徴等がある。なお、低周波特徴の算出の対象となる映像は、特徴量DB116に格納されている特徴量データの算出時刻等を基にして映像DB120から検索すれば良い。   The low frequency feature calculation unit 122 uses the feature amount data stored in the feature amount DB 116 and the low frame rate video included in the video DB 120 to calculate the low frequency feature for the moving object extracted by the moving object extraction unit 110. calculate. Here, the low-frequency feature is a feature that is not calculated by the high-frequency feature calculation unit 112 among features necessary for tracking a moving object. Examples of low frequency features include human color and texture features as described above. Note that the video for which the low-frequency feature is to be calculated may be searched from the video DB 120 based on the calculation time of the feature data stored in the feature DB 116.

追跡処理部124は、特徴量DB116に格納された移動物体の特徴量を用いて、移動物体がカメラ間をどのように移動したのか追跡する。ここで、追跡対象は人物だけに限定するものではなく、移動物体であればどのようなものでも構わない。次に、この追跡結果を用いて、映像DB120の中から移動物体が映っているカメラ映像を選択する。そして、この追跡結果を用いて移動物体の移動軌跡を生成する。移動軌跡とは移動物体の過去の移動履歴を表す線分である。   The tracking processing unit 124 uses the feature amount of the moving object stored in the feature amount DB 116 to track how the moving object has moved between the cameras. Here, the tracking target is not limited to a person, and any tracking object may be used. Next, using this tracking result, a camera image showing a moving object is selected from the image DB 120. Then, a moving locus of the moving object is generated using the tracking result. The movement locus is a line segment representing the past movement history of the moving object.

監視画面生成部126は、映像DB120に蓄積された映像データと、追跡処理部124が選択した移動物体が映っている映像データと、追跡処理部124が生成した軌跡データから、本監視装置の利用者に提供する監視画面を生成する。監視画面の具体例については後述する。   The monitoring screen generation unit 126 uses the monitoring apparatus from the video data stored in the video DB 120, the video data showing the moving object selected by the tracking processing unit 124, and the trajectory data generated by the tracking processing unit 124. A monitoring screen to be provided to the user. A specific example of the monitoring screen will be described later.

入力手段128は、マウス,キーボード等の入力装置であり、“追跡開始”,“追跡終了”等の本監視装置の利用者の操作を受け付ける。   The input unit 128 is an input device such as a mouse or a keyboard, and accepts an operation of the monitoring device user such as “tracking start” and “tracking end”.

出力手段130は、ディスプレイなどの出力装置であり、監視画面生成部126が生成する監視画面を利用者に対して表示する。   The output unit 130 is an output device such as a display, and displays a monitoring screen generated by the monitoring screen generation unit 126 to the user.

次に、図2および図3を用いて、監視画面生成部126が生成し出力手段130に表示する監視画面の表示例を説明する。監視画面は、複数映像監視画面と追跡画面で構成される。以下順に説明する。   Next, a display example of the monitoring screen generated by the monitoring screen generation unit 126 and displayed on the output unit 130 will be described with reference to FIGS. 2 and 3. The monitoring screen is composed of a multiple video monitoring screen and a tracking screen. This will be described in order below.

まず、図2で複数の映像を閲覧するための複数映像監視画面の例を説明する。   First, an example of a multiple video monitoring screen for browsing a plurality of videos will be described with reference to FIG.

画面左部のマップ200は、監視領域全体の概略を示すマップである。この例では、3階建てのビルが監視対象であることを表している。   A map 200 on the left side of the screen is a map showing an outline of the entire monitoring area. This example shows that a three-story building is a monitoring target.

アイコン202は、マップ200上でのカメラの幾何学的な配置を示すものである。この例では、6台のカメラが監視領域内に配置されている。   The icon 202 indicates the geometric arrangement of the camera on the map 200. In this example, six cameras are arranged in the monitoring area.

映像監視領域204は、カメラ106(図1)で撮影した映像を表示する領域である。この例では、監視映像206等、4台のカメラの映像を表示している。5台以上のカメラの映像を表示する場合には、映像監視領域204の分割数を大きくするか、または映像監視領域204の一部を表示するようにしてスクロールバーで表示領域を変更できるようにすればよい。逆に、3台以下のカメラの映像を表示する場合には、映像監視領域204の分割数を小さくすればよい。   The video monitoring area 204 is an area for displaying video captured by the camera 106 (FIG. 1). In this example, images from four cameras such as the monitoring image 206 are displayed. When displaying images from five or more cameras, the display area can be changed with the scroll bar so that the number of divisions of the image monitoring area 204 is increased or a part of the image monitoring area 204 is displayed. do it. Conversely, when displaying images from three or less cameras, the number of divisions of the video monitoring area 204 may be reduced.

この複数映像監視画面によって、本装置の利用者は、カメラ106で撮影した複数の映像を同時に閲覧することができる。画面上で不審人物を確認した場合には、映像監視領域204の監視映像をマウスでクリックすることで追跡開始を指示できる。追跡終了ボタン208をマウスでクリックすることで、現在実行中の追跡を停止できる。   With this multiple video monitoring screen, the user of the present apparatus can simultaneously browse a plurality of videos captured by the camera 106. When a suspicious person is confirmed on the screen, the tracking start can be instructed by clicking the monitoring video in the video monitoring area 204 with the mouse. By clicking the tracking end button 208 with the mouse, the currently running tracking can be stopped.

なお、アイコン202と映像監視領域204内の映像との対応関係が明確になるように、例えば、両者をリンク210のようにアイコン202と監視映像206を線分で結んでもよい。また、映像監視領域204内の映像上に、アイコン202に対応するカメラの名称を表示してもよい。   For example, the icon 202 and the monitoring video 206 may be connected by a line segment as a link 210 so that the correspondence between the icon 202 and the video in the video monitoring area 204 becomes clear. Further, the name of the camera corresponding to the icon 202 may be displayed on the video in the video monitoring area 204.

次に、図3で特定の移動物体を監視するための追跡画面の例を説明する。画面全体の構成は図2の複数映像監視画面と基本的に同じである。異なるのは、マップ200上に、移動物体の軌跡300を表示する点、および、追跡対象を追跡しているカメラの映像だけを監視領域204に表示する点である。   Next, an example of a tracking screen for monitoring a specific moving object will be described with reference to FIG. The configuration of the entire screen is basically the same as the multiple video monitoring screen of FIG. The only difference is that the locus 300 of the moving object is displayed on the map 200 and only the video of the camera tracking the tracking target is displayed in the monitoring area 204.

移動物体の軌跡300は、サムネイル302と矢印306で構成される。サムネイル302とは、カメラで撮影した映像を縮小した画像データである。追跡対象がアイコン304に対応するカメラで撮影された画像データを過去の履歴として利用する。一方、矢印306は、サムネイル302からサムネイル308に移動したことを表す。軌跡の始点のサムネイル302は、このサムネイルに対応するカメラで追跡が始まったことを示し、軌跡の終点のサムネイル310は、このサムネイルに対応するカメラで現在移動物体を追跡中であることを示している。ここで、このように現在移動物体を追跡しているカメラを、カレントカメラと呼ぶことにする。   The moving object trajectory 300 includes a thumbnail 302 and an arrow 306. The thumbnail 302 is image data obtained by reducing a video photographed by the camera. Image data captured by a camera whose tracking target corresponds to the icon 304 is used as a past history. On the other hand, an arrow 306 indicates that the thumbnail 302 has been moved to the thumbnail 308. The thumbnail 302 at the start of the trajectory indicates that tracking has started with the camera corresponding to this thumbnail, and the thumbnail 310 at the end of the trajectory indicates that the moving object is currently being tracked with the camera corresponding to this thumbnail. Yes. Here, the camera that is currently tracking the moving object is called a current camera.

監視領域204上には、カレントカメラで撮影した映像を監視映像206を表示する。この際、カレントカメラに対応するアイコン202を、ハイライト表示することで、監視映像206を撮影したカメラを容易に把握できる。また、サムネイル302をマウスでクリックすると、サムネイルに対応する監視映像を監視領域204に表示するようにしてもよい。   On the monitoring area 204, a monitoring video 206 is displayed as a video captured by the current camera. At this time, by highlighting the icon 202 corresponding to the current camera, the camera that captured the monitoring video 206 can be easily grasped. When the thumbnail 302 is clicked with a mouse, a monitoring video corresponding to the thumbnail may be displayed in the monitoring area 204.

このように、過去の代表的な映像をサムネイルとして軌跡上に重ねて表示することで、移動軌跡を見るだけで移動物体の過去の状況を把握できるようになる。なお、図3では追跡数が一つの場合の追跡画面の例を示したが、追跡数は複数であっても構わない。複数の移動軌跡を表示する際には、移動軌跡が互いに重なり合って見え難くなるのを防ぐために、移動軌跡に対して右方向と下方向にオフセットかけて表示すれば良い。   In this way, past representative images are displayed as thumbnails superimposed on the trajectory, so that the past situation of the moving object can be grasped only by looking at the moving trajectory. Although FIG. 3 shows an example of the tracking screen when the number of tracking is one, the number of tracking may be plural. When displaying a plurality of movement trajectories, the movement trajectories may be displayed with an offset in the right and downward directions to prevent the movement trajectories from overlapping each other and becoming difficult to see.

次に、図4を使って人物物体追跡の基本原理を説明する。左側はカメラで撮影した監視映像であり、右側はその監視映像に対して特徴量DB116に格納されている特徴量をグラフ化したものである。また、特徴量をグラフ化する際には、特定の監視映像に対する特徴量だけではなく、その直前の監視映像数枚に対する特徴量も同時に表示してある。そのため、追跡対象一人に対して特徴量が複数プロットされている。これは、特徴量の算出誤差を考慮し、追跡精度を高めるためである。なお、監視映像の取得時刻は、上から下方向に、それぞれt1,t2,t3(t1<t2<t3)とする。また、図4において特徴量のグラフは、複数種(ここでは二種類)の特徴量1及び特徴量2とからなる特徴量空間を表す。   Next, the basic principle of human object tracking will be described with reference to FIG. The left side is a monitoring video taken by the camera, and the right side is a graph of the feature amount stored in the feature amount DB 116 for the monitoring video. In addition, when graphing the feature values, not only the feature values for a specific monitoring video but also the feature values for several monitoring videos immediately before are displayed. Therefore, a plurality of feature amounts are plotted for one tracking target. This is to improve tracking accuracy in consideration of feature amount calculation errors. Note that the monitoring video acquisition times are t1, t2, and t3 (t1 <t2 <t3) from the top to the bottom. In FIG. 4, the feature amount graph represents a feature amount space including a plurality of types (here, two types) of feature amount 1 and feature amount 2.

まず、時刻t1の監視映像400には、移動物体として人物402と人物404が存在しており、それぞれ、特徴量空間406では特徴量408と特徴量410に対応している。   First, in the monitoring video 400 at time t1, a person 402 and a person 404 exist as moving objects, and correspond to the feature quantity 408 and the feature quantity 410 in the feature quantity space 406, respectively.

次に、時刻t2における監視映像412には、移動物体として人物414と人物416が存在しており、それぞれ、特徴量空間418では特徴量420と特徴量422に対応している。ここで、特徴量空間406の特徴量408と特徴量空間418の特徴量420が同じ場所に位置しているので、人物402は人物414と同じ可能性が高く、監視映像400から監視映像412に移動したと判定することができる。   Next, in the monitoring video 412 at time t2, a person 414 and a person 416 exist as moving objects, and correspond to the feature quantity 420 and the feature quantity 422 in the feature quantity space 418, respectively. Here, since the feature quantity 408 in the feature quantity space 406 and the feature quantity 420 in the feature quantity space 418 are located at the same place, the person 402 is likely to be the same as the person 414, and the monitoring video 400 changes to the monitoring video 412. It can be determined that it has moved.

ここで、特徴量空間408と特徴量420の同値判定には、例えば、それぞれの重心間のユークリッド距離を用いれば良い。この距離が、あらかじめ定めた所定の閾値よりも小さい場合には両者が十分近く同じであると見なすことができる。   Here, for the equivalence determination between the feature amount space 408 and the feature amount 420, for example, the Euclidean distance between the respective centroids may be used. When this distance is smaller than a predetermined threshold value, it can be considered that both are sufficiently close and the same.

時刻t3における監視映像424には、移動物体として人物426が存在しており、特徴量空間428では特徴量430に対応している。ここで、特徴量空間406の特徴量410と特徴量空間428の特徴量430が同じ場所に位置しているので、人物404は人物426と同じ可能性が高く、監視映像400から監視映像424に移動したと判定することができる。   In the monitoring video 424 at time t3, a person 426 exists as a moving object, and corresponds to the feature quantity 430 in the feature quantity space 428. Here, since the feature quantity 410 in the feature quantity space 406 and the feature quantity 430 in the feature quantity space 428 are located at the same place, the person 404 is likely to be the same as the person 426, and the monitoring video 400 changes to the monitoring video 424. It can be determined that it has moved.

このように、特徴量空間で同じような値を持つ特徴量を検索することで、特定の移動物体がカメラ間をどのように移動したのか追跡することが可能になる。   Thus, by searching for feature quantities having similar values in the feature quantity space, it becomes possible to track how a specific moving object has moved between cameras.

次に、図5のフローチャートを用いて、本実施形態の移動物体監視装置の監視現場100側の処理の流れを説明する。   Next, the flow of processing on the monitoring site 100 side of the moving object monitoring apparatus of the present embodiment will be described using the flowchart of FIG.

ステップ500では、ステップ502からステップ508までの処理を、あらかじめ定めた所定の頻度で繰り返す。   In step 500, the processing from step 502 to step 508 is repeated at a predetermined frequency.

ステップ502では、映像取得部108によりカメラ106で撮影した監視映像を取得する。   In step 502, the video acquisition unit 108 acquires a monitoring video shot by the camera 106.

ステップ504では、移動物体抽出部110により、ステップ502で取得した映像中の移動物体を抽出する。   In step 504, the moving object extraction unit 110 extracts the moving object in the video acquired in step 502.

ステップ506では、高周波特徴算出部112によって、ステップ504で抽出した移動物体の高周波特徴量を算出する。この際、高周波特徴算出部112は、処理分担表114に従って、算出すべき高周波特徴を決定する。   In step 506, the high frequency feature calculation unit 112 calculates the high frequency feature amount of the moving object extracted in step 504. At this time, the high frequency feature calculation unit 112 determines a high frequency feature to be calculated according to the processing assignment table 114.

ステップ508では、伝送映像選択部118によって、ステップ502で取得した映像の中から送信すべき映像を選択し、その映像を映像DB120に送信し格納する。この際、処理分担表114から監視センタ102側に送信すべき映像のフレームレートを決定し、そのフレームレートに従って、送信すべき映像を選択する。   In step 508, the transmission video selection unit 118 selects a video to be transmitted from the videos acquired in step 502, and transmits the video to the video DB 120 for storage. At this time, the frame rate of the video to be transmitted to the monitoring center 102 side is determined from the processing allocation table 114, and the video to be transmitted is selected according to the frame rate.

次に、図6を用いて、本実施形態の移動物体監視装置の監視センタ102側の処理の流れをフローチャートを使って説明する。   Next, the flow of processing on the monitoring center 102 side of the moving object monitoring apparatus of this embodiment will be described using a flowchart with reference to FIG.

ステップ600では、ステップ602からステップ616までの処理を、あらかじめ定めた所定の頻度で繰り返す。   In step 600, the processing from step 602 to step 616 is repeated with a predetermined frequency.

ステップ602では、映像DB120から処理の対象となる監視映像を取得する。   In step 602, a monitoring video to be processed is acquired from the video DB 120.

ステップ604では、低周波特徴算出部122によって、特徴量DB116に格納されている特徴量データと映像DB120に含まれる低フレームレートの映像を用いて、特徴量DB116に格納されている移動物体に対する低周波特徴を算出する。ここで、低周波特徴とは、移動物体の追跡に必要な特徴の中で、高周波特徴算出部112で算出しなかった特徴のことである。   In step 604, the low frequency feature calculation unit 122 uses the feature amount data stored in the feature amount DB 116 and the low frame rate video included in the video DB 120 to reduce the low frequency for the moving object stored in the feature amount DB 116. Calculate frequency characteristics. Here, the low-frequency feature is a feature that is not calculated by the high-frequency feature calculation unit 112 among features necessary for tracking a moving object.

ステップ606では、監視画面生成部126によって本監視装置の利用者の操作を処理する。ここで、利用者の操作は入力手段128を用いて入力される。   In step 606, the monitoring screen generation unit 126 processes the operation of the user of the monitoring apparatus. Here, the user's operation is input using the input means 128.

ステップ608では、現在実行中の全ての追跡について、ステップ610からステップ616の処理を繰り返す。   In step 608, the processing from step 610 to step 616 is repeated for all traces currently being executed.

ステップ610では、処理対象の時刻tを現時刻に設定する。これにより、ステップ612での追跡処理は現時刻を基準に実施されることになる。   In step 610, the time t to be processed is set to the current time. As a result, the tracking process in step 612 is performed based on the current time.

ステップ612では、ステップ610で設定した時刻tを基準にして、追跡処理部124によって移動物体追跡を実行する。移動物体追跡処理の詳細については後述する。   In step 612, the tracking processing unit 124 performs tracking of the moving object with reference to the time t set in step 610. Details of the moving object tracking process will be described later.

ステップ614では、ステップ612での移動物体追跡の結果、カメラ間の渡りが発生したかどうか判定し、発生した場合には、ステップ616を実行する。ここで、カメラ間の渡りとは、追跡対象が当初映っていたカメラから消えて、他のカメラに現れることである。   In step 614, it is determined whether or not a cross between the cameras has occurred as a result of the tracking of the moving object in step 612. If it has occurred, step 616 is executed. Here, the transition between the cameras means that the tracking target disappears from the camera originally shown and appears in another camera.

ステップ616では、追跡処理部124によって人物の移動軌跡を生成する。   In step 616, the tracking processing unit 124 generates a person's movement trajectory.

ステップ618では、監視画面生成部126によって監視画面を生成し出力手段130に表示する。   In step 618, a monitoring screen is generated by the monitoring screen generation unit 126 and displayed on the output unit 130.

次に、図7のフローチャートを使って、図6のステップ606の入力処理の詳細を説明する。   Next, details of the input processing in step 606 in FIG. 6 will be described using the flowchart in FIG.

ステップ700では、入力手段128からの本監視装置の利用者の操作を受け付ける。   In step 700, the operation of the user of the monitoring apparatus from the input unit 128 is accepted.

ステップ702では、ステップ700での入力結果を判定する。“追跡開始”が指定された場合には、ステップ704からステップ708を実行する。“追跡開始”は、例えば、図2の複数映像監視画面の監視映像206をマウスでクリックすることで指定される。一方、“追跡終了”が指定された場合には、ステップ710を実行する。“追跡終了”は、例えば、図2の複数映像監視画面の追跡終了ボタン208をマウスでクリックすることで指定される。   In step 702, the input result in step 700 is determined. If “tracking start” is designated, steps 704 to 708 are executed. “Start tracking” is specified by, for example, clicking the monitoring video 206 of the multiple video monitoring screen in FIG. 2 with a mouse. On the other hand, when “end tracking” is designated, step 710 is executed. “Tracking end” is specified by, for example, clicking the tracking end button 208 of the multiple video monitoring screen in FIG. 2 with a mouse.

ステップ704では、ステップ700で指定されたカメラに映っている人物に対応する特徴量を、追跡対象の特徴量として記憶する。   In step 704, the feature quantity corresponding to the person shown in the camera designated in step 700 is stored as the trace target feature quantity.

ステップ706では、ステップ700で指定されたカメラをカレントカメラとする。カレントカメラとは、前述のように移動物体追跡時に移動物体を現時点で追跡しているカメラのことである。   In step 706, the camera designated in step 700 is set as the current camera. As described above, the current camera is a camera that is currently tracking a moving object during tracking of the moving object.

ステップ708では、図6のステップ608の処理対象に加えるために、ステップ704とステップ706で得た情報を基にして追跡を新規登録する。   In step 708, a new trace is registered based on the information obtained in steps 704 and 706 to be added to the processing target in step 608 in FIG.

ステップ710では、現在実行中の全ての追跡を停止する。この結果、図6のステップ608で処理対象となる追跡は一つも存在しなくなる。   In step 710, all currently running traces are stopped. As a result, there is no tracking to be processed in step 608 of FIG.

次に、図8のフローチャートを使って、図6のステップ612の移動物体追跡の処理の詳細を説明する。   Next, details of the moving object tracking process in step 612 of FIG. 6 will be described using the flowchart of FIG.

ステップ800では、カレントカメラの映像に追跡人物が存在するかどうか判定する。追跡人物とは図6のステップ608で処理対象に指定した移動軌跡に対応する人物のことである。なお、ここで人物と表現しているが車両等移動物体全般のことを含むこととする。カレントカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。カレントカメラの映像に対応する特徴量空間に、追跡対象の特徴量が処理対象の時刻tにおいて存在しない場合には、カレントカメラに追跡人物が存在しないと判定し、ステップ802から806を実行する。   In step 800, it is determined whether or not a tracking person exists in the video of the current camera. The tracked person is a person corresponding to the movement locus designated as the processing target in step 608 of FIG. In addition, although expressed as a person here, it shall include the whole moving objects, such as a vehicle. Whether or not a tracking person exists in the current camera is determined in the feature amount space as shown in FIG. If the tracking target feature quantity does not exist at the processing target time t in the feature quantity space corresponding to the current camera image, it is determined that there is no tracking person in the current camera, and steps 802 to 806 are executed.

ステップ802では、カレントカメラ以外に追跡人物が存在するのか検索する。この検索処理の詳細については後述する。   In step 802, it is searched whether there is a tracking person other than the current camera. Details of this search processing will be described later.

ステップ804では、ステップ802の追跡人物の検索処理の結果を判定し、他のカメラに追跡人物が存在した場合には、ステップ806を実行する。   In step 804, the result of the tracking person search process in step 802 is determined. If there is a tracking person in another camera, step 806 is executed.

ステップ806では、ステップ802での検索結果を基にして、追跡人物が存在するカメラを新たにカレントカメラとして設定する。   In step 806, based on the search result in step 802, the camera in which the tracking person exists is newly set as the current camera.

ステップ808では、追跡処理開始から事前に指定した所定時間が経過したのか判定する。これは、追跡処理を時間で打ち切るための処理である。必要であれば所定時間に無限大を指定することで、追跡処理の打ち切りを回避することも可能である。判定の結果、所定時間を経過している場合には、ステップ810を実行する。   In step 808, it is determined whether a predetermined time specified in advance has elapsed since the start of the tracking process. This is a process for aborting the tracking process in time. If necessary, it is possible to avoid the termination of the tracking process by specifying infinity at a predetermined time. If the result of determination is that a predetermined time has elapsed, step 810 is executed.

ステップ810では、現在の処理対象の追跡を打ち切るための停止処理を実行する。   In step 810, a stop process for stopping the tracking of the current processing target is executed.

次に、図9のフローチャートを使って、図8のステップ802の追跡人物の検索処理の詳細を説明する。   Next, details of the tracking person search processing in step 802 of FIG. 8 will be described using the flowchart of FIG.

ステップ900では、本実施形態の監視装置の全てのカメラについてステップ902からステップ908を繰り返し実行する。   In step 900, steps 902 to 908 are repeatedly executed for all the cameras of the monitoring apparatus of the present embodiment.

ステップ902では、ステップ900で処理対象となったカメラがカレントカメラと同じかどうか判定する。同じ場合にはステップ904を実行する。   In step 902, it is determined whether or not the camera to be processed in step 900 is the same as the current camera. If they are the same, step 904 is executed.

ステップ904では、処理の効率化のためにステップ900の現在のループ処理をスキップして次のループ処理へと進む。カレントカメラには追跡対象の人物が存在しないことが、図8のステップ800で確定しているためである。   In step 904, the current loop processing in step 900 is skipped to proceed to the next loop processing in order to improve processing efficiency. This is because it is determined in step 800 of FIG. 8 that there is no person to be tracked in the current camera.

ステップ906では、ステップ900で処理対象となったカメラに追跡対象の人物が存在するかどうか判定する。処理対象のカメラに追跡人物が存在するかどうかの判定は、図4に示したように、特徴量空間で行う。判定の結果、存在する場合にはステップ908を実行する。   In step 906, it is determined whether there is a person to be tracked in the camera that has been processed in step 900. Whether or not a tracking person exists in the camera to be processed is determined in the feature space as shown in FIG. As a result of the determination, if it exists, step 908 is executed.

ステップ908では、現在処理対象のカメラを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生し、かつ現在処理対象のカメラに追跡対象が存在することが分かる。   In step 908, the camera to be processed is returned as a return value, and the process is terminated. On the call side of this flow, it can be seen that camera crossing occurs and that there is a tracking target in the current processing target camera.

ステップ910では、無効を意味するNULLを戻り値として返し処理を終了する。このフローの呼び側には、カメラの渡りが発生していないことが分かる。   In step 910, NULL meaning invalid is returned as a return value, and the process is terminated. It can be seen that there is no camera crossing on the call side of this flow.

次に、図10を使って、図1の処理分担表114のデータ構造の例を説明する。この表は、特徴量種別1000,必要映像レート1002,処理分担1004の3列の要素からなる。   Next, an example of the data structure of the processing assignment table 114 in FIG. 1 will be described with reference to FIG. This table is composed of three columns of elements of feature quantity type 1000, required video rate 1002, and processing sharing 1004.

特徴量種別1000は、本発明の移動物体監視装置で用いる特徴量の種別を表す。例えば、セル1006は特徴量Aに関する情報であることを表す。   The feature quantity type 1000 represents the type of feature quantity used in the moving object monitoring apparatus of the present invention. For example, the cell 1006 represents information related to the feature amount A.

必要映像レート1002は、特徴量の算出に用いる映像のフレームレートを表す。例えば、セル1008は特徴量Aを算出するために30フレーム/秒のフレームレートの映像を用いることを表す。なお、本実施形態においては、処理分担表114作成時に、必要映像レート1002の値が高いものから降順に本表の各行を並べることとする。   The necessary video rate 1002 represents the frame rate of the video used for calculating the feature amount. For example, the cell 1008 indicates that an image having a frame rate of 30 frames / second is used to calculate the feature amount A. In the present embodiment, when the processing allocation table 114 is created, the rows of this table are arranged in descending order from the highest required video rate 1002 value.

処理分担1004は、特徴量算出処理を、監視現場100と監視センタ102のどちらで実行するのかを表す。セル1010は、特徴量Aの算出処理を監視現場100側で実行することを表す。   The process sharing 1004 indicates whether the feature amount calculation process is executed at the monitoring site 100 or the monitoring center 102. A cell 1010 represents that the calculation process of the feature amount A is executed on the monitoring site 100 side.

高周波特徴境界値1012は、高周波特徴の範囲を示す値であり、処理分担1004の値(監視現場または監視センタ)を設定する。図10の例では値が2であり、1,2番目の特徴量、すなわち特徴量AとBが高周波特徴で、3番目以降、すなわち特徴量CとDは低周波特徴であることを示す。これにより、特徴量AとBの算出処理は監視現場100で、特徴量CとDの算出処理は監視センタ102で実行すると判定でき、処理分担1004の値が定まる。なお、本実施形態においては、高周波特徴の映像フレームレートは低周波特徴のそれよりも高く設定される。   The high-frequency feature boundary value 1012 is a value indicating the range of the high-frequency feature, and sets the value of the processing share 1004 (monitoring site or monitoring center). In the example of FIG. 10, the value is 2, indicating that the first and second feature quantities, that is, feature quantities A and B, are high-frequency features, and the third and later, that is, feature quantities C and D are low-frequency features. Thereby, it can be determined that the calculation processing of the feature amounts A and B is executed at the monitoring site 100, and the calculation processing of the feature amounts C and D is executed at the monitoring center 102, and the value of the processing sharing 1004 is determined. In the present embodiment, the video frame rate of the high frequency feature is set higher than that of the low frequency feature.

この処理分担表114により、高周波特徴算出部112は、算出すべき特徴量を設定できる。図10の例では、特徴量AとBを算出対象として決定し算出する。残りの特徴量CとDは、低周波特徴算出部122で算出することとなる。   With this processing allocation table 114, the high frequency feature calculation unit 112 can set a feature amount to be calculated. In the example of FIG. 10, the feature amounts A and B are determined and calculated as calculation targets. The remaining feature amounts C and D are calculated by the low frequency feature calculation unit 122.

また、この処理分担表114により、伝送映像選択部118が、監視センタ102に伝送する映像のフレームレートを決定できる。図10の例では、監視センタ102側で算出すべき特徴は特徴量CとDであり、両者を算出するのに必要なフレームレートは5フレーム/秒となる。伝送映像選択部118はこのフレームレートで映像を伝送する。   In addition, the transmission video selection unit 118 can determine the frame rate of the video to be transmitted to the monitoring center 102 by using the processing allocation table 114. In the example of FIG. 10, the features to be calculated on the monitoring center 102 side are feature amounts C and D, and the frame rate required to calculate both is 5 frames / second. The transmission video selection unit 118 transmits video at this frame rate.

次に、図11を使って、図1の特徴量DB116に格納する特徴量のデータ構造の例を説明する。特徴量データは、特徴量データ全体を表すテーブル1110と特徴量ベクトルを表すテーブル1118で構成される。   Next, an example of the data structure of the feature amount stored in the feature amount DB 116 of FIG. 1 will be described using FIG. The feature amount data includes a table 1110 representing the entire feature amount data and a table 1118 representing the feature amount vector.

テーブル1100は一つの特徴量データを表すテーブルである。このテーブルはデータ項目1102〜データ項目1117から構成される。   A table 1100 is a table representing one feature amount data. This table includes data items 1102 to 1117.

データ項目1102は、カメラを一意に表すIDである。このIDに対応するカメラで撮影した映像から特徴量を算出したことを示す。   The data item 1102 is an ID that uniquely represents the camera. The feature amount is calculated from the video imaged by the camera corresponding to the ID.

データ項目1104は、特徴量を算出した映像の取得時刻である。   The data item 1104 is the acquisition time of the video for which the feature amount has been calculated.

データ項目1106は、移動物体のIDである。このIDは一つのカメラ内で人物を追跡する過程で定まるものである。あくまでも、一つのカメラ内で一意に定まるものであり、複数のカメラ間で同じ人物に対して一意に定まるものではない。   A data item 1106 is an ID of a moving object. This ID is determined in the process of tracking a person in one camera. To the last, it is uniquely determined within one camera, and is not uniquely determined for the same person among a plurality of cameras.

データ項目1108は、移動物体の画像上での位置を表す。この位置情報は、移動物体抽出部110が算出する。   The data item 1108 represents the position of the moving object on the image. This position information is calculated by the moving object extraction unit 110.

データ項目1110は、移動物体の画像上での大きさを表す。大きさとしては、例えば移動物体に対する外接矩形を考えれば良い。この大きさ情報は、移動物体抽出部110が算出する。   The data item 1110 represents the size of the moving object on the image. As the size, for example, a circumscribed rectangle for a moving object may be considered. This size information is calculated by the moving object extraction unit 110.

データ項目1112〜1117は移動物体について算出した特徴量ベクトルを格納する領域へのポインタである。それぞれ、特徴量A,B,C,Dに対応する特徴量データを格納する。ここでは、データ項目1112は、特徴量Aのデータとしてテーブル1118を指し示している。一方、データ項目1114は、特徴量Bのデータとして、値が存在しないNULLを指し示している。すなわち、特徴量Bのデータはまだ算出されていないことを示す。同様に、データ項目1116,1117もNULLであり、特徴量C,Dについてもまだ算出されていないことを示す。   Data items 1112 to 1117 are pointers to areas for storing feature quantity vectors calculated for moving objects. The feature amount data corresponding to the feature amounts A, B, C, and D are stored. Here, the data item 1112 indicates the table 1118 as the data of the feature amount A. On the other hand, the data item 1114 indicates NULL having no value as the data of the feature amount B. That is, it indicates that the data of the feature amount B has not been calculated yet. Similarly, the data items 1116 and 1117 are NULL, indicating that the feature amounts C and D have not yet been calculated.

一方、特徴量ベクトルを表すテーブル1118は、データ項目1120と可変長のデータ項目1122から構成される。   On the other hand, the table 1118 representing the feature vector is composed of data items 1120 and variable-length data items 1122.

データ項目1120は、ベクトルの次数である。特徴量ベクトルの次数は、特徴量として色やテクスチャの特徴,形状の特徴,動きの特徴など様々なものが考えられるため、一意には定まらない。本実施形態では、採用する特徴量を自由に変更できるように、特徴量の次数をデータ項目1120に保持する。例えば、移動物体の色の特徴として下半身と上半身の最頻輝度値を用いる場合には、次数は2となる。   Data item 1120 is the order of the vector. The order of the feature vector is not uniquely determined because various features such as color, texture, shape, and motion can be considered as the feature. In the present embodiment, the order of the feature quantity is held in the data item 1120 so that the feature quantity to be adopted can be freely changed. For example, when the mode luminance values of the lower body and the upper body are used as the color characteristics of the moving object, the order is 2.

データ項目1122は、特徴量ベクトルの要素であり、データ項目1120で指定した次数の数だけ項目が存在する。   The data item 1122 is an element of the feature quantity vector, and there are as many items as the number of orders specified in the data item 1120.

以上に述べた実施の形態によれば、ネットワークを伝送する映像データを増やさずに、センタ側で高周波特徴を利用できるようになる。これにより、精度良い移動物体の追跡が可能になる。   According to the embodiment described above, the center side can use high-frequency characteristics without increasing the video data transmitted through the network. This makes it possible to track a moving object with high accuracy.

(実施の形態2)
第一の実施形態では、監視現場が一箇所の場合の装置の構成を示したが、監視現場が複数箇所であっても良い。この場合の実施の形態を以下に示す。基本的には第一の実施形態と大部分が同じ構成であるので、変更点のみを説明する。
(Embodiment 2)
In the first embodiment, the configuration of the apparatus when there is one monitoring site is shown, but there may be a plurality of monitoring sites. An embodiment in this case is shown below. Since the configuration is basically the same as that of the first embodiment, only the changes will be described.

図12は、複数の監視現場を備える移動物体監視装置全体の機能構成を示すブロック図である。図1に示した移動物体監視装置に対して、監視現場1200を新たに追加している。   FIG. 12 is a block diagram illustrating a functional configuration of the entire moving object monitoring apparatus including a plurality of monitoring sites. A monitoring site 1200 is newly added to the moving object monitoring apparatus shown in FIG.

監視現場1200は、監視現場100とは異なる監視対象である。監視現場1200の機能構成は、監視現場100の機能構成と同様である。監視現場100、および監視現場1200のそれぞれの高周波特徴算出部112によって算出された映像の高周波特徴は、監視センタ102の特徴量DB116に格納される。同様に、監視現場100、および監視現場1200のそれぞれの伝送映像選択部118によって伝送された映像は、監視センタ102の映像DB120に格納される。監視センタ102側では、複数の監視現場の情報が格納された特徴量DB116、および映像DB120を用いて処理を行う。   The monitoring site 1200 is a monitoring target different from the monitoring site 100. The functional configuration of the monitoring site 1200 is the same as the functional configuration of the monitoring site 100. The high-frequency features of the video calculated by the high-frequency feature calculators 112 of the monitoring site 100 and the monitoring site 1200 are stored in the feature amount DB 116 of the monitoring center 102. Similarly, the images transmitted by the transmission image selection units 118 of the monitoring site 100 and the monitoring site 1200 are stored in the image DB 120 of the monitoring center 102. On the monitoring center 102 side, processing is performed using the feature amount DB 116 and the image DB 120 in which information on a plurality of monitoring sites is stored.

以上に述べた実施の形態によれば、複数の監視現場の情報を監視センタに集約できる。よって、複数の監視現場を監視センタで監視できるようになる。   According to the embodiment described above, information on a plurality of monitoring sites can be collected in the monitoring center. Therefore, a plurality of monitoring sites can be monitored at the monitoring center.

なお、以上に述べた実施の形態では、複数の監視現場で同一の処理分担表114を用いたが、監視現場ごとに処理分担表114の内容を変更しても良い。このようにすることで、監視現場に応じた柔軟なカスタマイズが可能となる。   In the embodiment described above, the same processing allocation table 114 is used at a plurality of monitoring sites, but the contents of the processing allocation table 114 may be changed for each monitoring site. In this way, flexible customization according to the monitoring site becomes possible.

(実施の形態3)
第一および第二の実施形態では、処理分担表114を用いて処理の分担を静的に定めていたが、装置の稼動状況に応じて動的に定めても良い。この場合の実施の形態を以下に示す。
(Embodiment 3)
In the first and second embodiments, the sharing of processing is statically determined using the processing sharing table 114, but may be dynamically determined according to the operating status of the apparatus. An embodiment in this case is shown below.

図13は、処理分担を動的に変更する移動物体監視装置全体の機能構成を示すブロック図である。図1に示した移動物体監視装置に対して、ネットワーク負荷測定部1300,処理負荷測定部1302,現場映像DB1304を新たに追加している。   FIG. 13 is a block diagram illustrating a functional configuration of the entire moving object monitoring apparatus that dynamically changes the processing sharing. A network load measuring unit 1300, a processing load measuring unit 1302, and an on-site video DB 1304 are newly added to the moving object monitoring apparatus shown in FIG.

ネットワーク負荷測定部1300は、ネットワーク104の負荷率を測定し、後述するように、その結果を処理分担表114に反映させる。この負荷率は、例えば、実際にネットワーク104を伝送しているデータ量の計測値をネットワーク104の伝送容量で割ることで求めれば良い。   The network load measuring unit 1300 measures the load factor of the network 104 and reflects the result in the processing assignment table 114 as described later. This load factor may be obtained, for example, by dividing the measured value of the amount of data actually transmitted through the network 104 by the transmission capacity of the network 104.

処理負荷測定部1302は、監視現場100側の装置の処理負荷率を測定し、後述するように、その結果を処理分担表114に反映させる。図には、移動物体抽出部110と高周波特徴算出部112の処理負荷を測定する例を示してある。この負荷率は、例えば、ある単位時間に、各装置が待機状態にない時間、すなわち何らかの処理をしている時間の割合によって表される。   The processing load measuring unit 1302 measures the processing load rate of the apparatus on the monitoring site 100 side, and reflects the result in the processing sharing table 114 as described later. In the figure, an example is shown in which the processing load of the moving object extraction unit 110 and the high frequency feature calculation unit 112 is measured. This load factor is represented, for example, by a ratio of time during which each device is not in a standby state, that is, some processing time, in a certain unit time.

現場映像DB1304は、現状のネットワーク負荷と各装置の処理の負荷の状況では処理を続行できな場合に、一時的に映像を退避するデータベースである。詳細については後述する。   The on-site video DB 1304 is a database that temporarily saves video when processing cannot be continued under the current network load and processing load of each device. Details will be described later.

図14は、処理分担の動的変更に用いる処理分担表のデータ構造の例である。これは、図10に示した処理分担表のデータ構造に下限値1400と上限値1402を追加したものである。   FIG. 14 is an example of a data structure of a process sharing table used for dynamic change of process sharing. This is obtained by adding a lower limit value 1400 and an upper limit value 1402 to the data structure of the processing assignment table shown in FIG.

下限値1400は、高周波特徴境界値1012が取りえる範囲の下限値を示す。後述するように、下限値1400は、ネットワーク負荷測定部1300で測定する負荷率に応じて変動する。   The lower limit value 1400 indicates the lower limit value of the range that the high frequency feature boundary value 1012 can take. As will be described later, the lower limit value 1400 varies according to the load factor measured by the network load measuring unit 1300.

上限値1402は、高周波特徴境界値1012が取りえる範囲の上限値を示す。後述するように、上限値1402は、処理負荷測定部1302で測定する負荷率に応じて変動する。   The upper limit value 1402 indicates an upper limit value of a range that the high frequency feature boundary value 1012 can take. As will be described later, the upper limit value 1402 varies according to the load factor measured by the processing load measurement unit 1302.

以上より、高周波特徴境界値1012の取りえる範囲は、下限値1400以上、上限値1402以下と定まる。   From the above, the range that the high frequency characteristic boundary value 1012 can take is determined to be the lower limit value 1400 or more and the upper limit value 1402 or less.

図15は、処理分担の動的変更の処理の流れを表すフローチャートである。   FIG. 15 is a flowchart showing a flow of processing for dynamically changing processing sharing.

ステップ1500では、ネットワーク負荷測定部1300によって、ネットワーク104の負荷率NLを測定する。   In step 1500, the network load measuring unit 1300 measures the load factor NL of the network 104.

ステップ1502では、ステップ1500で測定した負荷率NLと閾値TNL1を比較し、負荷率NLが閾値TNL1を上回る場合には、ステップ1504を実行する。ここで、閾値TNL1は100%に近い値、例えば、90%である。負荷率NLが閾値TNL1を上回る場合には、ネットワークの負荷率が高く、伝送容量の限界に近いことを意味する。   In step 1502, the load factor NL measured in step 1500 is compared with the threshold value TNL1, and if the load factor NL exceeds the threshold value TNL1, step 1504 is executed. Here, the threshold value TNL1 is a value close to 100%, for example, 90%. When the load factor NL exceeds the threshold value TNL1, it means that the load factor of the network is high and close to the limit of the transmission capacity.

ステップ1504では、図14の下限値1400に1を加える。ここで、max()は、引数の中で最大の値を求める関数である。特徴量種別数より大きな値となって、無効な値をとらないようにこの関数を利用する。下限値1400に1を加えることで、高周波特徴境界値1012の有効範囲は、監視現場100側で算出する特徴量が増え、ネットワーク104の負荷率が下がる方向に狭まる。   In step 1504, 1 is added to the lower limit value 1400 of FIG. Here, max () is a function for obtaining the maximum value among the arguments. This function is used so that the value is larger than the number of feature quantity types and an invalid value is not taken. By adding 1 to the lower limit value 1400, the effective range of the high frequency feature boundary value 1012 is narrowed in a direction in which the feature amount calculated on the monitoring site 100 side increases and the load factor of the network 104 decreases.

ステップ1506では、ステップ1500で測定した負荷率NLと閾値TNL2を比較し、負荷率NLが閾値TNL2を下回る場合には、ステップ1508を実行する。ここで、閾値TNL2は100%に比べて十分小さい値、例えば、50%である。負荷率NLが閾値TNL2を下回る場合には、ネットワークの負荷率が低く、伝送容量に余裕があることを意味する。   In step 1506, the load factor NL measured in step 1500 is compared with the threshold value TNL2. If the load factor NL is lower than the threshold value TNL2, step 1508 is executed. Here, the threshold value TNL2 is sufficiently smaller than 100%, for example, 50%. When the load factor NL is lower than the threshold value TNL2, it means that the load factor of the network is low and there is a margin in transmission capacity.

ステップ1508では、図14の下限値1400に1を減じる。ここで、min()は、引数の中で最小の値を求める関数である。下限値1400が無効な値をとらないようにこの関数を利用する。下限値1400に1を減じることで、高周波特徴境界値1012の有効範囲は、監視現場100側で算出する特徴量が減り、ネットワーク104の負荷率が上がる方向に広がる。   In step 1508, 1 is subtracted from the lower limit value 1400 in FIG. Here, min () is a function for obtaining the minimum value among the arguments. This function is used so that the lower limit value 1400 does not take an invalid value. By subtracting 1 to the lower limit value 1400, the effective range of the high-frequency feature boundary value 1012 decreases in the amount of feature calculated on the monitoring site 100 side, and widens the load factor of the network 104.

ステップ1510では、処理負荷測定部1302によって、監視現場100側の装置、例えば、移動物体抽出部110と高周波特徴算出部112の処理負荷率PLを測定する。   In step 1510, the processing load measurement unit 1302 measures the processing load factor PL of the monitoring site 100 side device, for example, the moving object extraction unit 110 and the high frequency feature calculation unit 112.

ステップ1512では、ステップ1510で測定した負荷率PLと閾値TPL1を比較し、負荷率PLが閾値TPL1を上回る場合には、ステップ1514を実行する。ここで、閾値TPL1は100%に近い値、例えば、90%である。負荷率PLが閾値TPL1を上回る場合には、各装置の処理の負荷率が高く、限界に近いことを意味する。   In step 1512, the load factor PL measured in step 1510 is compared with the threshold value TPL1, and if the load factor PL exceeds the threshold value TPL1, step 1514 is executed. Here, the threshold value TPL1 is a value close to 100%, for example, 90%. When the load factor PL exceeds the threshold value TPL1, it means that the load factor of processing of each device is high and close to the limit.

ステップ1514では、図14の上限値1402に1を減じる。ステップ1508と同様に、無効な上限値をとらないようにmin()を利用する。上限値1402に1を減じることで、高周波特徴境界値1012の有効範囲は、監視現場100側で算出する特徴量が減り、処理の負荷率が下がる方向に狭まる。   In step 1514, 1 is subtracted from the upper limit value 1402 in FIG. As in step 1508, min () is used so as not to take an invalid upper limit value. By subtracting 1 from the upper limit value 1402, the effective range of the high frequency feature boundary value 1012 is reduced in the direction in which the feature amount calculated on the monitoring site 100 side is reduced and the processing load factor is reduced.

ステップ1516では、ステップ1510で測定した負荷率PLと閾値TPL2を比較し、負荷率PLが閾値TPL2を下回る場合には、ステップ1518を実行する。ここで、閾値TPL2は100%に比べて十分小さい値、例えば、50%である。負荷率PLが閾値TPL2を下回る場合には、各装置の処理の負荷率が低く、処理に余裕があることを意味する。   In step 1516, the load factor PL measured in step 1510 is compared with the threshold value TPL2. If the load factor PL is lower than the threshold value TPL2, step 1518 is executed. Here, the threshold value TPL2 is sufficiently smaller than 100%, for example, 50%. When the load factor PL is lower than the threshold value TPL2, it means that the processing load factor of each device is low and there is a margin in processing.

ステップ1518では、図14の上限値1402に1を加える。ステップ1504と同様に、特徴量種別数より大きく無効な値をとらないようにmax()を利用する。上限値1402に1を加えることで、高周波特徴境界値1012の有効範囲は、監視現場100側で算出する特徴量が増え、装置の負荷率が上がる方向に広がる。   In step 1518, 1 is added to the upper limit value 1402 in FIG. As in step 1504, max () is used so as not to take an invalid value larger than the number of feature quantity types. By adding 1 to the upper limit value 1402, the effective range of the high-frequency feature boundary value 1012 increases in the direction in which the feature amount calculated on the monitoring site 100 side increases and the load factor of the apparatus increases.

ステップ1520では、これまでの処理で算出した下限値と上限値を比較する。下限値が上限値以下の場合は、現状のネットワーク負荷率と各装置の処理の負荷率に応じた適切な高周波特徴境界値1012が存在することを意味する。この場合、ステップ1522を実行する。下限値が上限値より大きい場合は、現状のネットワーク負荷率と各装置の処理の負荷率に応じた適切な高周波特徴境界値1012が存在しないことを意味する。この場合は、例外処理として映像を退避するために、ステップ1524を実行する。   In step 1520, the lower limit value and the upper limit value calculated in the processing so far are compared. When the lower limit value is equal to or lower than the upper limit value, it means that there is an appropriate high-frequency feature boundary value 1012 corresponding to the current network load factor and the load factor of processing of each device. In this case, step 1522 is executed. When the lower limit value is larger than the upper limit value, it means that there is no appropriate high-frequency feature boundary value 1012 according to the current network load factor and the load factor of processing of each device. In this case, step 1524 is executed to save the video as an exception process.

ステップ1522では、現状のネットワーク負荷率と各装置の処理の負荷率に応じた適切な高周波特徴境界値1012を決定する。高周波特徴境界値1012は、下限値1400以上、かつ上限値1402以下の範囲に在る。高周波特徴境界値1012としては、この範囲内の適当な値を採用すれば良い。例えば、下限値1400、または上限値1402を採用すれば良い。また、両者の中間値を採用しても良い。   In step 1522, an appropriate high-frequency feature boundary value 1012 corresponding to the current network load factor and the load factor of processing of each device is determined. The high frequency characteristic boundary value 1012 is in the range of the lower limit value 1400 or more and the upper limit value 1402 or less. An appropriate value within this range may be adopted as the high frequency feature boundary value 1012. For example, a lower limit value 1400 or an upper limit value 1402 may be adopted. Moreover, you may employ | adopt the intermediate value of both.

ステップ1524では、現状のネットワーク負荷と各装置の処理の負荷の状況では、処理を続行できないと考え、処理を中断し映像を退避する。具体的には、高周波特徴算出112の特徴量算出処理と伝送映像選択部118の映像伝送処理を中断し、代わりに映像を現場映像DB1304に退避する。退避した映像は、例えば、ネットワーク負荷と各装置の処理の負荷が低くなってから、処理すれば良い。   In step 1524, it is considered that the processing cannot be continued under the current network load and the processing load of each device, and the processing is interrupted and the video is saved. Specifically, the feature amount calculation processing of the high-frequency feature calculation 112 and the video transmission processing of the transmission video selection unit 118 are interrupted, and the video is saved in the on-site video DB 1304 instead. The saved video may be processed after the network load and the processing load of each device are reduced, for example.

以上に述べた実施の形態によれば、ネットワークの負荷状況と各装置の処理の負荷状況に応じて、適切な処理の分担を、動的に定めることが可能になる。これにより、外的要因による負荷の変動に柔軟に対応できる。   According to the embodiment described above, it is possible to dynamically determine an appropriate sharing of processing according to the load status of the network and the load status of the processing of each device. As a result, it is possible to flexibly deal with load fluctuations due to external factors.

なお、図13には、ネットワーク負荷測定部1300と処理負荷測定部1302を監視現場100に設置した場合の例を示したが、これらの装置を監視センタ102側に設置しても構わない。処理負荷測定部1302を監視センタ102側に設置した場合の構成を図16に示す。処理負荷測定部1302の代わりに、監視センタ102側にセンタ処理負荷測定部1600を追加してある。   Although FIG. 13 shows an example in which the network load measuring unit 1300 and the processing load measuring unit 1302 are installed on the monitoring site 100, these devices may be installed on the monitoring center 102 side. FIG. 16 shows a configuration when the processing load measuring unit 1302 is installed on the monitoring center 102 side. Instead of the processing load measuring unit 1302, a center processing load measuring unit 1600 is added to the monitoring center 102 side.

センタ処理負荷測定部1600は、監視センタ102側の装置の処理負荷率を測定し、前述した処理負荷測定部1302と同様に、その結果を処理分担表114に反映させる。図には、低周波特徴算出部122と追跡処理部124の処理負荷を測定する例を示してある。なお、複数の監視現場が存在する場合には、より細かな制御が可能となる。例えば、全ての監視現場の処理分担表114に一律に反映させるのではなく、各監視現場に対して時間差を置いて順次変更しても良い。   The center processing load measurement unit 1600 measures the processing load rate of the device on the monitoring center 102 side, and reflects the result on the processing sharing table 114, as with the processing load measurement unit 1302 described above. In the figure, an example of measuring the processing load of the low frequency feature calculation unit 122 and the tracking processing unit 124 is shown. In addition, when there are a plurality of monitoring sites, finer control is possible. For example, instead of uniformly reflecting them in the processing assignment table 114 of all the monitoring sites, the monitoring sites may be sequentially changed with a time difference.

以上に述べた実施の形態によれば、監視現場だけではなく監視センタ側の処理の負荷状況に応じて、適切な処理の分担を、動的に定めることが可能になる。これにより、外的要因による負荷の変動に柔軟に対応できるようになる。   According to the embodiment described above, it is possible to dynamically determine an appropriate sharing of processing according to the processing load state of the monitoring center as well as the monitoring site. As a result, it becomes possible to flexibly cope with load fluctuations caused by external factors.

(実施の形態4)
第一〜第三の実施形態では、監視現場側と監視センタ側で分担して算出した特徴量を用いて移動物体追跡する場合の例を示したが、この特徴量を映像検索に用いても良い。この場合の実施の形態を以下に示す。基本的には第一の実施例と大部分が同じ構成であるので、変更がある部分を説明する。
(Embodiment 4)
In the first to third embodiments, an example has been shown in which a moving object is tracked using a feature amount that is shared and calculated between the monitoring site side and the monitoring center side, but this feature amount may be used for video search. good. An embodiment in this case is shown below. Basically, since most of the configuration is the same as that of the first embodiment, a portion where there is a change will be described.

図17は、映像検索機能を備える監視装置全体の機能構成を示すブロック図である。映像検索部1700と検索画面生成部1702以外は、図1に示したものと同様である。   FIG. 17 is a block diagram showing a functional configuration of the entire monitoring apparatus having a video search function. Except for the video search unit 1700 and the search screen generation unit 1702, it is the same as that shown in FIG.

映像検索部1700は、利用者が指定した映像に類似した映像を、特徴量DB116に格納された特徴量データに基づいて検索する。ここで、検索には、例えば特徴量ベクトルを用いれば良い。特徴量ベクトルは、図11に示した特徴量A〜特徴量Dの各種特徴量を連結して求める。そして、検索対象の映像の特徴量ベクトルと、特徴量DB116に格納された特徴量ベクトルの差分ベクトルの長さを類似度として算出する。この類似度が小さい場合には、映像が似ていると考えることができる。   The video search unit 1700 searches for a video similar to the video specified by the user based on the feature amount data stored in the feature amount DB 116. Here, for example, a feature vector may be used for the search. The feature amount vector is obtained by connecting various feature amounts of the feature amount A to the feature amount D shown in FIG. Then, the length of the difference vector between the feature vector of the search target video and the feature vector stored in the feature DB 116 is calculated as the similarity. When the similarity is small, it can be considered that the images are similar.

検索画像生成部1702は、映像検索部1700の検索結果に基づいて本監視装置の利用者に提供する監視画面を生成する。   The search image generation unit 1702 generates a monitoring screen to be provided to the user of this monitoring apparatus based on the search result of the video search unit 1700.

図18は、検索画像生成部1702が生成する検索画面の例である。検索画面は、クエリ条件設定エリア1800,検索クエリ指定エリア1802,検索実行ボタン1806,検索結果表示エリア1808で構成される。   FIG. 18 is an example of a search screen generated by the search image generation unit 1702. The search screen includes a query condition setting area 1800, a search query designation area 1802, a search execution button 1806, and a search result display area 1808.

クエリ条件設定エリア1800は、検索クエリの候補となる映像を絞り込むために、条件を設定する領域である。例えば、カメラIDや日時で条件を指定する。ここで、カメラIDとは監視現場に設定されたカメラを識別するたのIDである。   The query condition setting area 1800 is an area in which conditions are set in order to narrow down videos that are search query candidates. For example, the conditions are specified by camera ID and date / time. Here, the camera ID is an ID for identifying a camera set at the monitoring site.

検索クエリ指定エリア1802は、クエリ条件設定エリア1800で指定した条件に近い映像の一覧を表示する。   The search query designation area 1802 displays a list of videos close to the conditions designated in the query condition setting area 1800.

検索クエリ1804は、検索クエリ指定エリア1802に表示された映像の中から、本装置の利用者が選択した映像である。この映像が、検索処理系への類似画像の問い合わせに用いられる。図では、検索クエリ1804の外枠が太く表示されることで、選択状態にあることを示している。   A search query 1804 is a video selected by the user of this apparatus from the videos displayed in the search query designation area 1802. This video is used for inquiry of similar images to the search processing system. In the figure, the outer frame of the search query 1804 is displayed thick, indicating that it is in a selected state.

検索実行ボタン1806は、検索の実行開始を指示するボタンである。本装置の利用者がこのボタンを押すことで、検索クエリ1804を用いた映像の検索が開始される。   The search execution button 1806 is a button for instructing start of search execution. When the user of this apparatus presses this button, video search using the search query 1804 is started.

検索結果表示エリア1808は、検索の結果が表示される領域である。検索の結果、検索クエリ1804と類似した映像が、似た順に表示される。   A search result display area 1808 is an area in which search results are displayed. As a result of the search, videos similar to the search query 1804 are displayed in the similar order.

以上に述べた実施の形態によれば、ネットワークを伝送する映像データを増やさずに、センタ側で高周波特徴を利用できるようになる。これにより、精度良い映像検索が可能になる。   According to the embodiment described above, the center side can use high-frequency characteristics without increasing the video data transmitted through the network. Thereby, a video search with high accuracy becomes possible.

(実施の形態5)
第一〜第三の実施形態では、監視現場側と監視センタ側で分担して算出した特徴量を用いて移動物体追跡する場合の例を示したが、この特徴量を映像中の異常行動検知に用いても良い。この場合の実施の形態を以下に示す。基本的には第一の実施例と大部分が同じ構成であるので、変更がある部分を説明する。
(Embodiment 5)
In the first to third embodiments, an example has been shown in which a moving object is tracked using a feature amount that is shared and calculated between the monitoring site side and the monitoring center side, but this feature amount is detected as an abnormal action in the video. You may use for. An embodiment in this case is shown below. Basically, since most of the configuration is the same as that of the first embodiment, a portion where there is a change will be described.

図19は、異常行動検知機能を備える監視装置全体の機能構成を示すブロック図である。異常行動検知部1900と異常表示画面生成部1902以外は、図1に示したものと同様である。   FIG. 19 is a block diagram illustrating a functional configuration of the entire monitoring apparatus having an abnormal behavior detection function. Except for the abnormal behavior detection unit 1900 and the abnormal display screen generation unit 1902, the configuration is the same as that shown in FIG. 1.

異常行動検知部1900は、特徴量DB116に格納された特徴量データを用いて異常行動を検知し、結果を異常表示画面生成部1902に送る。ここで、異常行動の検知方法としては、例えば、正常行動の動画の特徴量ベクトルを学習し、正常行動の特徴からは逸脱した映像を異常として判定するような公知の異常行動判別方法を利用することができる。   The abnormal behavior detection unit 1900 detects abnormal behavior using the feature amount data stored in the feature amount DB 116 and sends the result to the abnormality display screen generation unit 1902. Here, as an abnormal behavior detection method, for example, a known abnormal behavior determination method is used in which a feature vector of a normal behavior video is learned and a video deviating from the normal behavior characteristics is determined as abnormal. be able to.

異常表示画面生成部1902は、異常行動検知部1900の検知結果に基づいて本監視装置の利用者に提供する監視画面を生成する。   The abnormal display screen generation unit 1902 generates a monitoring screen to be provided to the user of this monitoring apparatus based on the detection result of the abnormal behavior detection unit 1900.

図20は、異常表示画面生成部1902が生成する監視画面の例である。この画面は、図2に示した画面とほぼ同様であるが、異常発生映像2000が追加されている。   FIG. 20 is an example of a monitoring screen generated by the abnormality display screen generation unit 1902. This screen is almost the same as the screen shown in FIG. 2, but an abnormality occurrence image 2000 is added.

異常発生映像2000は、異常行動検知部1900によって異常と判定された映像であり、映像の外枠を強調表示して、本装置の利用者が視認し易くしている。映像の外枠を強調表示に加えて、映像を別の新規ウインドウに表示したり、音声で警告を出すことで、本装置の利用者に注意を促すようにしても良い。   The abnormality occurrence image 2000 is an image determined to be abnormal by the abnormal behavior detection unit 1900, and the outer frame of the image is highlighted to make it easy for the user of this apparatus to visually recognize. In addition to highlighting the outer frame of the video, the video may be displayed in another new window, or a warning may be issued by voice to alert the user of the apparatus.

以上に述べた実施の形態によれば、ネットワークを伝送する映像データを増やさずに、センタ側で高周波特徴を利用できるようになる。これにより、精度良い異常行動検知が可能になる。   According to the embodiment described above, the center side can use high-frequency characteristics without increasing the video data transmitted through the network. Thereby, it is possible to detect abnormal behavior with high accuracy.

本発明による移動物体監視装置の機能構成を表すブロック図である。It is a block diagram showing the function structure of the moving object monitoring apparatus by this invention. 複数映像監視画面の例を説明する図である。It is a figure explaining the example of a multiple image | video monitoring screen. 追跡監視画面の例を説明する図である。It is a figure explaining the example of a tracking monitoring screen. 移動物体追跡の基本原理を説明する図である。It is a figure explaining the basic principle of moving object tracking. 監視現場側の処理流れを表すフローチャートである。It is a flowchart showing the processing flow on the monitoring site side. 監視センタ側の処理流れを表すフローチャートである。It is a flowchart showing the processing flow by the side of a monitoring center. 入力処理の処理流れを表すフローチャートである。It is a flowchart showing the process flow of an input process. 移動物体追跡の処理流れを表すフローチャートである。It is a flowchart showing the process flow of tracking of a moving object. 追跡人物の検索処理の流れを表すフローチャートである。It is a flowchart showing the flow of the search process of a tracking person. 処理分担表のデータ構造を説明する図である。It is a figure explaining the data structure of a process sharing table. 特徴量データの構造を説明する図である。It is a figure explaining the structure of feature-value data. 複数の監視現場を備える移動物体監視装置全体の機能構成を表すブロック図である。It is a block diagram showing the function structure of the whole moving object monitoring apparatus provided with the some monitoring field. 処理分担を動的に変更する移動物体監視装置全体の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the whole moving object monitoring apparatus which changes a process share dynamically. 処理分担の動的変更に用いる処理分担表のデータ構造を説明する図である。It is a figure explaining the data structure of the processing allocation table used for the dynamic change of processing allocation. 処理分担の動的変更の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the dynamic change of a process sharing. センタ側に処理負荷測定部を備える移動物体監視装置全体の機能構成を表すブロック図である。It is a block diagram showing the functional structure of the whole moving object monitoring apparatus provided with the processing load measurement part in the center side. 映像検索機能を備える監視装置全体の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the whole monitoring apparatus provided with an image | video search function. 検索画面例を説明する図である。It is a figure explaining the example of a search screen. 異常行動検知機能を備える監視装置全体の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the whole monitoring apparatus provided with an abnormal action detection function. 検索画面例を説明する図である。It is a figure explaining the example of a search screen.

符号の説明Explanation of symbols

100 監視現場
102 監視センタ
104 ネットワーク
106 カメラ
108 映像取得部
110 移動物体抽出部
112 高周波特徴算出部
114 処理分担表
116 特徴量DB
118 伝送映像選択部
120 映像DB
122 低周波特徴算出部
124 追跡処理部
126 監視画面生成部
128 入力手段
130 出力手段
100 Monitoring Site 102 Monitoring Center 104 Network 106 Camera 108 Video Acquisition Unit 110 Moving Object Extraction Unit 112 High Frequency Feature Calculation Unit 114 Processing Sharing Table 116 Feature DB
118 Transmission Video Selection Unit 120 Video DB
122 Low-frequency feature calculator 124 Tracking processor 126 Monitor screen generator 128 Input means 130 Output means

Claims (11)

複数のカメラを用いて移動物体を監視する移動物体監視装置において、
前記移動物体監視装置は、ネットワークで接続された少なくとも一つの監視現場と監視センタで構成され、
前記監視現場は、
カメラで撮影した映像を取得する映像取得部と、
取得した前記映像中の移動物体を抽出する移動物体抽出部と、
抽出した前記移動物体に対する特徴量の算出処理の分担を定める処理分担表と、
前記処理分担表に従って前記移動物体の高周波特徴量を算出する高周波特徴算出部と、
前記処理分担表に従って前記監視センタに送信する映像の伝送レートを決定し、そのレートで前記映像を伝送する映像選択部と、を備え、
前記監視センタは、
前記伝送映像選択部によって伝送された映像を蓄積する映像データベースと、
前記高周波特徴算出部が算出した特徴量を格納する特徴量データベースと、
前記特徴量データベースで未算出の特徴を算出する低周波特徴算出部と、を備えることを特徴とする移動物体監視装置。
In a moving object monitoring apparatus that monitors a moving object using a plurality of cameras,
The moving object monitoring device comprises at least one monitoring site and a monitoring center connected by a network,
The monitoring site is
A video acquisition unit that acquires video captured by the camera;
A moving object extraction unit for extracting a moving object in the acquired video;
A processing sharing table for determining the sharing of the feature amount calculation processing for the extracted moving object;
A high-frequency feature calculator that calculates a high-frequency feature amount of the moving object according to the processing assignment table;
Determining a transmission rate of a video to be transmitted to the monitoring center according to the processing allocation table, and a video selection unit for transmitting the video at the rate,
The monitoring center is
A video database for storing videos transmitted by the transmission video selection unit;
A feature quantity database for storing the feature quantities calculated by the high-frequency feature calculation section;
A moving object monitoring apparatus comprising: a low-frequency feature calculation unit that calculates an uncalculated feature in the feature amount database.
請求項1に記載の移動物体監視装置において、
前記処理分担表は、特徴量の種別を表す特徴量種別と、特徴量を算出するために必要な映像のフレームレートを表す必要映像レートと、特徴量算出処理を実行する場所を表す処理分担の少なくとも一つ以上の組み合わせと、高周波特徴の範囲を示す高周波特徴境界値と、を持ち、
前記高周波特徴境界値に基づいて前記処理分担の値を決定することを特徴とする移動物体監視装置。
The moving object monitoring apparatus according to claim 1,
The process sharing table includes a feature sharing type representing a feature quantity type, a required video rate representing a frame rate of a video necessary for calculating the feature quantity, and a process sharing representing a place where the feature quantity calculation process is executed. Having at least one combination and a high frequency feature boundary value indicating a range of the high frequency feature,
The moving object monitoring apparatus, wherein the processing share value is determined based on the high-frequency feature boundary value.
請求項2に記載の移動物体監視装置において、
前記処理分担表は、前記必要映像レートに基づいて、降順または昇順にソートされていることを特徴とする移動物体監視装置。
The moving object monitoring apparatus according to claim 2,
The processing allocation table is sorted according to descending or ascending order based on the required video rate.
請求項1ないし3のいずれか一項に記載の移動物体監視装置において、
前記処理分担表は、前記高周波特徴境界値に対する上限値と下限値を備え、
前記高周波特徴境界値は前記上限値と前記下限値の範囲で変更できることを特徴とする移動物体監視装置。
In the moving object monitoring device according to any one of claims 1 to 3,
The processing allocation table includes an upper limit value and a lower limit value for the high-frequency feature boundary value,
The moving object monitoring apparatus, wherein the high-frequency characteristic boundary value can be changed within a range between the upper limit value and the lower limit value.
請求項1ないし4のいずれか一項に記載の移動物体監視装置において、
ネットワークの負荷率を測定するネットワーク負荷測定部を備え、
前記ネットワーク負荷測定部は測定した負荷率に基づいて前記処理分担表の前記高周波特徴境界値を更新することを特徴とする移動物体監視装置。
In the moving object monitoring device according to any one of claims 1 to 4,
It has a network load measurement unit that measures the load factor of the network,
The network load measuring unit updates the high-frequency feature boundary value of the processing assignment table based on the measured load factor.
請求項5に記載の移動物体監視装置において、
前記ネットワーク負荷測定部が前記監視現場と前記監視センタの少なくともどちらか一方に設置されることを特徴とする移動物体監視装置。
The moving object monitoring apparatus according to claim 5,
The moving object monitoring apparatus, wherein the network load measuring unit is installed in at least one of the monitoring site and the monitoring center.
請求項1ないし4のいずれか一項に記載の移動物体監視装置において、
装置の処理の負荷率を測定する処理負荷測定部を備え、
前記処理負荷測定部は測定した負荷率に基づいて前記処理分担表の前記高周波特徴境界値を更新することを特徴とする移動物体監視装置。
In the moving object monitoring device according to any one of claims 1 to 4,
A processing load measuring unit for measuring the processing load factor of the apparatus is provided.
The moving load monitoring device, wherein the processing load measuring unit updates the high frequency characteristic boundary value of the processing sharing table based on the measured load factor.
請求項7に記載の移動物体監視装置において、
前記処理負荷測定部が前記監視現場と前記監視センタの少なくともどちらか一方に設置されることを特徴とする移動物体監視装置。
The moving object monitoring apparatus according to claim 7, wherein
The moving object monitoring apparatus, wherein the processing load measuring unit is installed in at least one of the monitoring site and the monitoring center.
請求項1ないし8のいずれか一項に記載の移動物体監視装置において、
前記特徴量データベースに格納されたデータに基づいて前記移動物体を追跡する移動物体追跡部を備えることを特徴とする移動物体監視装置。
In the moving object monitoring device according to any one of claims 1 to 8,
A moving object monitoring apparatus comprising: a moving object tracking unit that tracks the moving object based on data stored in the feature amount database.
請求項1ないし8のいずれか一項に記載の移動物体監視装置において、
前記特徴量データベースに格納されたデータに基づいて映像を検索する映像検索部を備えることを特徴とする移動物体監視装置。
In the moving object monitoring device according to any one of claims 1 to 8,
A moving object monitoring apparatus comprising: a video search unit that searches for video based on data stored in the feature database.
請求項1ないし8のいずれか一項に記載の移動物体監視装置において、
前記特徴量データベースに格納されたデータに基づいて前記移動物体の異常行動を検出する異常行動検知部を備えることを特徴とする移動物体監視装置。
In the moving object monitoring device according to any one of claims 1 to 8,
A moving object monitoring apparatus comprising: an abnormal action detection unit that detects an abnormal action of the moving object based on data stored in the feature amount database.
JP2008189268A 2008-07-23 2008-07-23 Moving object monitoring device Expired - Fee Related JP4613230B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008189268A JP4613230B2 (en) 2008-07-23 2008-07-23 Moving object monitoring device
CN2009101646161A CN101651824B (en) 2008-07-23 2009-07-23 Mobile object monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008189268A JP4613230B2 (en) 2008-07-23 2008-07-23 Moving object monitoring device

Publications (2)

Publication Number Publication Date
JP2010028594A JP2010028594A (en) 2010-02-04
JP4613230B2 true JP4613230B2 (en) 2011-01-12

Family

ID=41673909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008189268A Expired - Fee Related JP4613230B2 (en) 2008-07-23 2008-07-23 Moving object monitoring device

Country Status (2)

Country Link
JP (1) JP4613230B2 (en)
CN (1) CN101651824B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101323886B1 (en) * 2012-03-23 2013-10-30 삼성에스디에스 주식회사 Distributed-Processing-Based Object Tracking Apparatus and Method
JPWO2013145530A1 (en) * 2012-03-28 2015-12-10 日本電気株式会社 Analysis system
JP6181925B2 (en) * 2012-12-12 2017-08-16 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
JP5438861B1 (en) * 2013-07-11 2014-03-12 パナソニック株式会社 Tracking support device, tracking support system, and tracking support method
JP6555906B2 (en) * 2015-03-05 2019-08-07 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6808358B2 (en) * 2016-05-27 2021-01-06 キヤノン株式会社 Image processing equipment, image processing methods and programs
CN106372572B (en) * 2016-08-19 2019-11-12 北京旷视科技有限公司 Monitoring method and device
CN110505447B (en) * 2019-07-29 2021-08-20 视联动力信息技术股份有限公司 Monitoring video transmission method, device, equipment and storage medium based on video networking
JP7524106B2 (en) * 2021-03-02 2024-07-29 株式会社日立製作所 Video analysis system and video analysis method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346357A (en) * 1998-06-02 1999-12-14 Sony Corp Recording device for monitoring
JP2000270297A (en) * 1999-03-12 2000-09-29 Toshiba Video Products Japan Kk Monitor camera system having digital video recording and reproducing function
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069492A (en) * 1999-08-30 2001-03-16 Matsushita Electric Ind Co Ltd Video transmitter
CN101203014A (en) * 2006-12-14 2008-06-18 英业达股份有限公司 Mobile monitoring system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346357A (en) * 1998-06-02 1999-12-14 Sony Corp Recording device for monitoring
JP2000270297A (en) * 1999-03-12 2000-09-29 Toshiba Video Products Japan Kk Monitor camera system having digital video recording and reproducing function
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera

Also Published As

Publication number Publication date
JP2010028594A (en) 2010-02-04
CN101651824A (en) 2010-02-17
CN101651824B (en) 2012-03-07

Similar Documents

Publication Publication Date Title
JP4613230B2 (en) Moving object monitoring device
JP4706535B2 (en) Moving object monitoring device using multiple cameras
KR102153591B1 (en) Method and apparatus for detecting garbage dumping action in real time on video surveillance system
US8619135B2 (en) Detection of abnormal behaviour in video objects
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
US9684835B2 (en) Image processing system, image processing method, and program
US20110052069A1 (en) Image search apparatus
US8588466B2 (en) Object area detection system, device, method, and program for detecting an object
JP5001260B2 (en) Object tracking method and object tracking apparatus
JP5743849B2 (en) Video analysis apparatus and system
WO2014050518A1 (en) Information processing device, information processing method, and information processing program
JP2007272488A (en) Image processor, monitor camera and image monitoring system
JP7197000B2 (en) Information processing device, information processing method and information processing program
WO2015040929A1 (en) Image processing system, image processing method, and program
JP6758834B2 (en) Display device, display method and program
JP2010140425A (en) Image processing system
CN110826496B (en) Crowd density estimation method, device, equipment and storage medium
CN108647587A (en) Demographic method, device, terminal and storage medium
JP2011035571A (en) Suspicious behavior detection method and suspicious behavior detector
CN114005140A (en) Personnel identification method, device, equipment, pedestrian monitoring system and storage medium
JP2008278128A (en) Monitoring system, monitoring method, and program
US10783365B2 (en) Image processing device and image processing system
JP2010117952A (en) Apparatus and method for identifying object
CN111986229A (en) Video target detection method, device and computer system
US10916016B2 (en) Image processing apparatus and method and monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees