JP2012205097A - Video processing device - Google Patents
Video processing device Download PDFInfo
- Publication number
- JP2012205097A JP2012205097A JP2011068103A JP2011068103A JP2012205097A JP 2012205097 A JP2012205097 A JP 2012205097A JP 2011068103 A JP2011068103 A JP 2011068103A JP 2011068103 A JP2011068103 A JP 2011068103A JP 2012205097 A JP2012205097 A JP 2012205097A
- Authority
- JP
- Japan
- Prior art keywords
- video
- frame
- monitoring
- tracking
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、監視映像の各フレームに対して注視すべき度合いを付与する映像処理装置に関する。 The present invention relates to a video processing apparatus that gives a degree to be watched to each frame of a monitoring video.
従来、監視映像中から人物の不審な行動を検出する処理は、各人物に共通の比較基準を用いて行われていた。 Conventionally, the process of detecting a suspicious behavior of a person from a monitoring video has been performed using a common reference for each person.
特許文献1に記載の侵入物体監視装置では、監視映像中の侵入物体を検知してその移動量を算出し、移動量が所定量を超えた場合の入力画像をダイジェスト映像として記録する。
In the intruding object monitoring device described in
また、特許文献2に記載の異常行動検知装置では、複数の移動物体の正常行動パターンを学習することで比較基準を作成する。
Moreover, in the abnormal action detection apparatus described in
しかしながら、従来技術では、特定人物が一時的にとった不審な動きが大多数の人物がとる動きと似ているとそれを重要シーンと判定できないことがあった。例えば、大多数の人が歩いている中で小走りしていた特定人物が一時的に速度を落としたシーンが重要シーンと判定できなかった。 However, in the related art, if the suspicious movement temporarily taken by a specific person is similar to the movement taken by the majority of persons, it may not be determined as an important scene. For example, a scene in which a specific person who has been running shortly while a large number of people are walking temporarily decreases the speed cannot be determined as an important scene.
またこのとき、特定人物が一時的にとった減速を不審な動きとして特に注視すべき重要シーンとする一方で、当該特定人物が走っているという、大多数の人とは異なる動きも次に注視すべき重要シーンと判定することが望まれる。 At this time, the deceleration that the specific person temporarily took is an important scene that should be particularly watched as suspicious movements, while the movement that is different from the majority of people that the specific person is running is also watched next. It is desired to determine that it is an important scene to be performed.
本発明は上記課題を鑑みてなされたものであり、監視にあたり注視すべき重要シーンを好適に判別できる映像処理装置を提供することを目的とする。また、重要シーンを判別できることに基づいて、元の監視映像よりも短い要約映像を作成可能とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a video processing apparatus that can appropriately determine an important scene to be watched for monitoring. Further, based on the fact that the important scene can be discriminated, a summary video shorter than the original monitoring video can be created.
本発明に係る映像処理装置は、複数フレームからなる監視映像において注視すべきフレームの情報を生成するものであって、前記監視映像を記憶する記憶部と、画像解析により前記監視映像中の移動物体の物体像を追跡し、前記移動物体が追跡された追跡フレームと当該移動物体の前記物体像の対応情報を生成する物体追跡部と、前記物体像から前記移動物体の動き又は/及び外見の特徴量を抽出する物体特徴抽出部と、前記特徴量を前記移動物体ごとに統計分析して当該特徴量の分布を代表する個別代表量を求め、前記各移動物体の前記個別代表量と当該移動物体の前記追跡フレームごとの前記特徴量との距離である第1距離を算出して当該第1距離が大きな前記追跡フレームほど高い監視価値を算出する監視価値算出部と、を備える。 A video processing apparatus according to the present invention generates information on a frame to be watched in a monitoring video composed of a plurality of frames, and stores a storage unit for storing the monitoring video, and a moving object in the monitoring video by image analysis. A tracking frame in which the moving object is tracked and an object tracking unit for generating correspondence information between the moving object and the object image of the moving object, and features of movement or / and appearance of the moving object from the object image An object feature extraction unit for extracting a quantity; and a statistical analysis of the feature quantity for each moving object to obtain an individual representative quantity representing the distribution of the feature quantity, and the individual representative quantity of each moving object and the moving object A monitoring value calculation unit that calculates a first distance, which is a distance from the feature amount for each tracking frame, and calculates a higher monitoring value for the tracking frame having a larger first distance.
他の本発明に係る映像処理装置においては、前記監視価値算出部は、前記物体追跡部により追跡された複数の前記移動物体の前記特徴量を統計分析して当該特徴量を代表する集団代表量を求め、前記集団代表量と前記各移動物体の前記個別代表量との距離である第2距離を算出して、前記各追跡フレームにおける前記移動物体の前記第1距離及び当該追跡フレームにて追跡された移動物体の前記第2距離に応じて前記監視価値を算出する。 In another video processing apparatus according to the present invention, the monitoring value calculation unit statistically analyzes the feature amounts of the plurality of moving objects tracked by the object tracking unit to represent the feature amounts. And a second distance that is a distance between the collective representative amount and the individual representative amount of each moving object is calculated, and tracking is performed using the first distance of the moving object and the tracking frame in each tracking frame. The monitoring value is calculated according to the second distance of the moved moving object.
また他の本発明に係る映像処理装置は、さらに、前記監視映像から前記監視価値が高い前記追跡フレームほど優先して選出することにより当該監視映像を間引いて、当該監視映像の総フレーム数より少なく設定されたフレーム数の要約映像を作成する要約映像作成部を有する。 In another video processing apparatus according to the present invention, the monitoring video is further thinned out by preferentially selecting the tracking frame having a higher monitoring value from the monitoring video, so that the number of the monitoring video is less than the total number of frames of the monitoring video. A summary video creation unit that creates a summary video of the set number of frames is provided.
別の本発明に係る映像処理装置においては、前記要約映像作成部は、前記各移動物体の一連の前記追跡フレームのうち始端フレームと終端フレームとの予め定められた少なくとも一方をそれらの前記監視価値に関係なく選出する。 In the video processing apparatus according to another aspect of the invention, the summary video creation unit may obtain at least one of the start frame and the end frame in a series of the tracking frames of the moving objects as the monitoring value thereof. Select regardless of.
さらに別の本発明に係る映像処理装置においては、前記要約映像作成部は、動的計画法を用い、前記要約映像を構成する前記追跡フレームの前記監視価値の総和を最大化する。 In still another video processing apparatus according to the present invention, the summary video creation unit uses dynamic programming to maximize the sum of the monitoring values of the tracking frames constituting the summary video.
本発明によれば、監視にあたり注視すべき重要シーンを好適に判別することが可能となる。また本発明は、監視映像から重要なシーンを優先的に選択して、元の監視映像よりも短い要約映像を作成することを可能とする。 According to the present invention, it is possible to suitably determine an important scene to be watched for monitoring. Further, the present invention makes it possible to preferentially select an important scene from a monitoring video and create a summary video shorter than the original monitoring video.
以下、本発明の実施形態について、図面に基づいて説明する。本実施形態は、監視空間を長時間に亘り撮像した監視映像の重要シーンを効率的に確認できる映像処理装置である。例えば、監視映像は店舗等の監視空間を撮像したものであり、当該監視空間内には監視対象として移動する人物が存在する。本映像処理装置1は、その長時間の監視映像を効率的に早見するために重要シーンを撮像速度で又は低速で再生し、重要シーン以外を高速で再生する。特に、映像処理装置1は、通常行動から逸脱した不審な人物行動が撮影されているシーンを重要シーンとして検出して早見可能にする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present embodiment is a video processing apparatus that can efficiently check an important scene of a monitoring video obtained by imaging a monitoring space for a long time. For example, the monitoring video is an image of a monitoring space such as a store, and a person who moves as a monitoring target exists in the monitoring space. The
図1は実施形態に係る映像処理装置1のブロック構成図である。映像処理装置1は、映像記録装置2、映像要約装置3及び表示装置4を含んで構成される。映像記録装置2及び表示装置4は映像要約装置3に接続される。
FIG. 1 is a block diagram of a
映像記録装置2は、撮像部20及び録画部21を含んで構成される。
The
撮像部20はいわゆる監視カメラであり、録画部21に接続される。撮像部20は監視空間を所定の時間間隔で撮像し、撮影した画像を順次、録画部21へ出力する。撮像の時間間隔は例えば1/5秒である。以下、この時間間隔で撮像される各画像をフレーム、また、この時間間隔をフレーム間隔と呼ぶ。
The
録画部21は、例えば、ハードディスクドライブ(HDD)等の大容量記録媒体を備えたディジタルビデオレコーダー(DVR)等で構成される。録画部21は、数日、数週間あるいは数ヶ月という長時間に亘り撮像される時系列の画像を撮像部20から入力され、監視映像22として大容量記録媒体に記録することができる。監視映像22は複数のフレームが撮像順に並んだデータである。録画部21は映像要約装置3にも接続され、映像要約装置3へ監視映像22を出力する。
The
映像要約装置3は、設定入力部30、記憶部31及び信号処理部32を含んで構成され、設定入力部30及び記憶部31は信号処理部32に接続される。映像要約装置3は録画部21及び表示装置4と接続され、監視映像22から重要シーンを検出して重要シーン以外のフレームを間引いた要約映像を作成し、作成した要約映像を表示装置4へ出力する。映像要約装置3は例えば、パーソナルコンピュータ(PC)等を用いて構成することができる。
The
設定入力部30はキーボード、マウス等のユーザーインターフェース装置であり、要約映像を見て監視空間における不審行動等を確認する店舗管理者や監視員等のユーザーにより操作され、各種設定を入力するために用いられる。ここで、上記設定には、要約映像の元映像としてユーザーに指定される監視映像22中の任意区間や、ユーザーに指定される要約映像のフレーム数(指定フレーム数)などがある。以下、要約処理の対象に指定された元映像を単に監視映像22と称する。指定フレーム数は少なくとも監視映像22の総フレーム数よりも小さい。なお、指定フレーム数をユーザーに直接入力させる代わりに要約映像の再生時間を設定入力部30から入力させ、信号処理部32にて再生時間をフレーム間隔で除してフレーム数に換算してもよい。
The setting
記憶部31は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部31は各種プログラムや各種データを記憶し、信号処理部32との間でこれらの情報を入出力する。各種データには物体情報310及び重要度データ311が含まれる。
The
物体情報310は、監視映像22中の各物体像の領域情報と各物体像から抽出された動き及び外見の少なくとも一方に関する特徴量を移動物体の識別子及びフレーム番号と対応付けた情報である。フレーム番号は監視映像22を構成する各フレームに対して撮像順に付与された番号である。図2は物体情報310の構成を示す模式図である。「物体ID」は移動物体の識別子であり、各移動物体を一意に識別する番号である。「追跡フレーム数」は各移動物体の物体像が検出され、追跡されたフレーム(追跡フレーム)の総数である。「追跡フレーム番号」は追跡フレームのフレーム番号である。また、各移動物体と対応付けられた追跡フレーム番号の始端から終端までが監視映像22における当該移動物体の出現区間を表す。「物体特徴量」は各移動物体の追跡フレームにおいて当該移動物体の物体像から抽出された動きの特徴量及び外見の特徴量のいずれか又は両方であり、移動物体uの追跡フレームtにおける特徴量をft,uと表記する。「物体領域」は各移動物体の追跡フレームにおいて当該移動物体の物体像が検出された領域であり、当該領域から物体像が特定できる。移動物体uの追跡フレームtにおける物体領域をIt,uと表記する。
The
図3は物体特徴量の構成を示すテーブルである。本実施形態の物体特徴量は外見の特徴量及び動きの特徴量のベクトルを並べた27次元ベクトルである。「全身エッジ特徴」、「上半分エッジ特徴」及び「下半分エッジ特徴」は物体像の全体、物体像をY方向に二分した上半分、及び下半分をそれぞれ抽出範囲とする外見特徴量であり、それぞれ抽出範囲の全画素から抽出されたエッジを4方向に量子化し、当該エッジ方向ごとにエッジ強度をヒストグラム分析して得られる4次元ベクトルである。 FIG. 3 is a table showing the structure of the object feature amount. The object feature amount according to the present embodiment is a 27-dimensional vector in which appearance feature amounts and motion feature amount vectors are arranged. “Whole edge feature”, “Upper half edge feature”, and “Lower half edge feature” are appearance feature amounts that have the entire object image, the upper half of the object image divided in the Y direction, and the lower half as extraction ranges, respectively. These are four-dimensional vectors obtained by quantizing the edges extracted from all the pixels in the extraction range in four directions and performing histogram analysis of the edge strength for each edge direction.
「全身色特徴」、「上半分色特徴」及び「下半分色特徴」も物体像の全体、物体像の上半分、及び下半分をそれぞれ抽出範囲とする外見特徴量である。本実施形態ではLuv表色系を採用し、それぞれ全身、上半分及び下半分を抽出範囲とする色特徴は抽出範囲の全画素から算出されたL成分平均値、U成分平均値、V成分平均値を並べた3次元ベクトルで表される。 The “whole body color feature”, “upper half color feature”, and “lower half color feature” are appearance feature amounts whose extraction ranges are the entire object image, the upper half, and the lower half of the object image, respectively. In this embodiment, the Luv color system is adopted, and the color features having the whole body, the upper half, and the lower half as the extraction ranges are the L component average value, U component average value, and V component average calculated from all the pixels in the extraction range, respectively. It is represented by a three-dimensional vector in which values are arranged.
「物体サイズ」も外見特徴量の1つであり、物体像の外接矩形の幅と高さを並べた2次元ベクトルである。 “Object size” is also an appearance feature quantity, and is a two-dimensional vector in which the width and height of a circumscribed rectangle of an object image are arranged.
「物体位置」は動き特徴量の1つであり、物体像の重心位置のX座標とY座標とを並べた2次元ベクトルである。「物体速度」も動き特徴量の1つであり、前後する追跡フレーム間での物体位置のX座標変化量及びY座標変化量からなる2次元ベクトルである。 “Object position” is one of the motion feature quantities, and is a two-dimensional vector in which the X and Y coordinates of the center of gravity of the object image are arranged. “Object velocity” is also one of the motion feature amounts, and is a two-dimensional vector composed of the X coordinate change amount and the Y coordinate change amount of the object position between the preceding and following tracking frames.
各移動物体uの追跡フレームtにおける物体特徴量ft,uは、単純に1フレームごとの特徴量とすることもできるが、移動平均とすることもできる。すなわち物体特徴量ft,uは各追跡フレームtを中心とする前後pフレーム、合計(2p+1)フレームの特徴量を成分ごとに平均した27次元ベクトルとすることができる。pには予め見積もった出現区間の最短長の1/2より小さい自然数を設定しておく。移動平均を用いると平滑化により領域抽出の誤差の影響が軽減され、不審行動の誤検出が少なくなる。 The object feature quantity f t, u in the tracking frame t of each moving object u can be simply a feature quantity for each frame, but can also be a moving average. That is, the object feature quantity f t, u can be a 27-dimensional vector obtained by averaging the feature quantities of the total (2p + 1) frames for each component, including p frames before and after each tracking frame t. A natural number smaller than ½ of the minimum length of the appearance interval estimated in advance is set for p. When the moving average is used, the influence of region extraction errors is reduced by smoothing, and false detection of suspicious behavior is reduced.
さらに物体特徴量ft,uは、追跡フレームtを含む複数フレームからなる小区間の分布とすることもできる。具体的には、小区間として注目フレームtを中心とする(2p+1)フレームを設定し、当該小区間の特徴量の分布を正規分布でモデル化する。物体特徴量ft,uは当該小区間の特徴量の成分ごとに平均した27次元ベクトル及び、当該平均ベクトルを用いて生成される27×27次元の共分散行列となる。ここでのpも予め見積もった出現区間の最短長の1/2より小さい自然数に設定される。小区間の分布を用いると領域抽出誤差の軽減による不審行動の誤検出低減効果に加え、外見特徴量の瞬時的な変化をも物体特徴量ft,uで表すことができるのでより多くの不審行動が検出されやすくなる。本実施形態では、この小区間の分布を物体特徴量ft,uとして抽出し、追跡フレームごとの後述する重要度の算出に用いる。 Furthermore, the object feature quantity f t, u can be a distribution of small sections including a plurality of frames including the tracking frame t. Specifically, a (2p + 1) frame centered on the frame of interest t is set as a small section, and the feature value distribution of the small section is modeled as a normal distribution. The object feature amount ft, u is a 27-dimensional vector averaged for each component of the feature amount in the small section, and a 27 × 27-dimensional covariance matrix generated using the average vector. Here, p is also set to a natural number smaller than ½ of the shortest length of the appearance section estimated in advance. If the distribution of small sections is used, in addition to the effect of reducing false detection of suspicious behavior by reducing region extraction errors, instantaneous changes in appearance feature quantities can also be expressed by object feature quantities ft, u , so that more suspiciousness is achieved. Actions are easier to detect. In the present embodiment, the distribution of this small section is extracted as the object feature amount f t, u and used for calculating the importance described later for each tracking frame.
重要度データ311は追跡フレームと当該追跡フレームの監視上の価値(監視価値)である。重要度とを対応付けた情報である。なお、追跡フレーム以外の監視映像22のフレームについて明示的にこれらのフレームと重要度の最低値(例えば0)とを対応付けた情報を重要度データ311に含ませてもよい。
The
信号処理部32は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、物体追跡部33、物体特徴抽出部34、重要度算出部35及び要約映像作成部36等の動作が記述されたプログラムを記憶部31から読み出して実行することにより各手段として動作する。信号処理部32は録画部21より入力される監視映像22から要約映像を作成し、作成した要約映像を表示装置4へ出力する。
The
物体追跡部33は相前後するフレームを比較して監視映像22に撮像された移動物体の物体像を移動物体ごとに追跡し、追跡結果を記憶部31の物体情報310に記憶させる。物体情報310の追跡結果は物体特徴抽出部34により参照される。追跡処理は背景差分処理により各フレームから物体領域を抽出し、前後するフレームにて抽出された物体領域のうち同一物体による物体領域をテンプレートマッチングまたはパーティクルフィルタにより対応付けるなどの公知の方法で行われる。追跡結果として、物体ID、追跡フレーム数、追跡フレームの番号、物体領域、及び物体特徴量のうちの物体位置が得られる。
The
物体特徴抽出部34は追跡結果及び監視映像22を参照して物体特徴量を抽出する。具体的には、物体特徴量のうち、全身エッジ特徴、上半分エッジ特徴、下半分エッジ特徴、全身色特徴、上半分色特徴、下半分色特徴、物体速度、及び物体サイズを抽出する。
The object
重要度算出部35は、監視映像22から重要度データ311を生成して記憶部31に記憶させる。重要度算出部35は、ユーザーが監視空間における不審行動等の移動物体の動きや外見の特異さを監視する本装置の用途に対応して、各追跡フレームの監視価値を算出する監視価値算出部である。
The
具体的には、重要度算出部35は、物体特徴量を移動物体ごとに統計分析して、当該移動物体の物体特徴量を代表する個別代表量を求め、当該移動物体の各追跡フレームにおける物体特徴量それぞれと個別代表量との距離(物体内逸脱度)を算出して当該距離が大きな追跡フレームほど高い重要度を算出する。重要度算出部35はさらに、複数の移動物体の物体特徴量を統計分析して、複数の移動物体の物体特徴量を代表する集団代表量を求め、移動物体の個別代表量それぞれと集団代表量との距離(物体間逸脱度)を算出して当該距離が大きな移動物体の追跡フレームほど重要度を高く算出する。そして、算出された重要度を追跡フレーム番号と対応付けて記憶部31に記憶させる。ちなみに、個別代表量や集団代表量は、統計対象とする一群の特徴量に関する代表量として例えば、平均ベクトルを含む。この他、中央値、最頻値などに相当する特徴量のベクトルも代表量として用いることもできる。また、個別代表量や集団代表量は分散に関する情報などを含むことができ、逸脱度や重要度の算出の基礎となる多次元の特徴量空間内での距離の定義として、当該分散等を考慮したものを採用することができる。
Specifically, the
このように算出される各フレームの重要度は、監視対象である移動物体の動きまたは外見が特異な変化を示したフレームまたは特異であるフレームであるほど高くなり、当該フレームが監視において注視すべきフレームである度合いを表す尺度として用いることができる。 The importance of each frame calculated in this way becomes higher as the movement or appearance of the moving object to be monitored shows a singular change or a singular frame, and the frame should be watched in monitoring. It can be used as a scale representing the degree of being a frame.
重要度算出部35は、物体内逸脱度を算出する物体内逸脱度算出部350と、物体間逸脱度を算出する物体間逸脱度算出部351と、物体内逸脱度と物体間逸脱度とを合成して重要度を算出する逸脱度合成部352を含んでなる。以下、これらの各部について説明する。
The
物体内逸脱度算出部350は、追跡された物体uごとにその出現区間における物体特徴量ft,uを統計分析して個別代表量Auを算出し、各フレームtにおける物体uごとの物体特徴量ft,uの当該物体uの個別代表量Auからの距離at,uを物体内逸脱度として算出する。物体内逸脱度の算出に27次元の物体特徴量をそのまま用いることもできるが、本実施形態ではそのうち図3に示す第10〜27次成分を用いる。第12〜27次成分である物体サイズ、上半分エッジ特徴、下半分エッジ特徴、上半分色特徴及び下半分色特徴は、手を挙げる、立っている状態から屈む、或いは屈んでいる状態から立つといった姿勢変化を伴う人の行動、あるいは荷物や台車を放置する・持ち去るといった物品への関与を伴う人の行動によって変化するため、人の不審行動をフレーム単位で検出するための特徴量として適している。また、第10,11次成分である物体速度は一時停止、加速、減速といった移動物体の行動に伴って変化するため、移動物体の不審行動をフレーム単位で検出するための特徴量として適している。
The in-object deviation
物体uの個別代表量Auは当該物体uの出現区間における物体特徴量ft,uの分布を近似した分布関数とすることができる。具体的には、分布関数として正規分布関数を用いる。当該物体uの出現区間における物体特徴量ft,uの平均ベクトルμuと共分散行列Σuを下記(1)式、(2)式で算出し、これらを正規分布関数に適用して個別代表量Au=N(μu,Σu)を算出する。なお、(1)式、(2)式において、Tuは当該物体uの追跡フレーム数であり、tは当該物体uの出現区間の始端フレームを1、終端フレームをTuとした相対的なフレーム番号である。 The individual representative amount A u of the object u can be a distribution function approximating the distribution of the object feature amount f t, u in the appearance section of the object u . Specifically, a normal distribution function is used as the distribution function. The average vector μ u and the covariance matrix Σ u of the object feature value f t, u in the appearance section of the object u are calculated by the following equations (1) and (2), and these are applied to the normal distribution function to individually A representative amount A u = N (μ u , Σ u ) is calculated. Incidentally, (1) and (2), T u is the number tracking frames of the object u, t is 1 to start frame of appearance section of the object u, relative to the end frame and the T u Frame number.
物体特徴量ft,uをフレームtとその前後各pフレームからなる小区間の分布とする本実施形態において、物体内逸脱度at,uは次式により個別代表量Auと物体特徴量ft,uとのバタチャリヤ距離として算出できる。 Object feature amount f t, in the present embodiment that the u and frame t and before and after each consisting of p frame sub-interval distribution, objects within the deviance a t, u individual representative amount A u and the object feature amount by the following formula It can be calculated as a batcha rear distance with ft , u .
(3)式において、μt,uはフレームtに対応する小区間(以下、小区間tと表記する)における物体uの特徴量の平均であり、Σt,uは小区間tにおける物体uの特徴量の共分散である。 In Expression (3), μ t, u is an average of the feature quantities of the object u in a small section (hereinafter referred to as the small section t) corresponding to the frame t, and Σ t, u is the object u in the small section t. Is the covariance of the feature quantity.
なお、バタチャリヤ距離に代えてカルバックライブラー距離、Hellinger距離など公知の各種分布間距離尺度を用いることができる。また、物体特徴量ft,uを移動平均または1フレームの特徴量とする別の実施形態において、物体内逸脱度at,uは次式により個別代表量Auと物体特徴量ft,uとのマハラノビス距離として算出できる。(4)式による距離は重要度の算出処理速度を優先したい場合に有効である。 It should be noted that various well-known inter-distribution distance scales such as a Cullbacher distance and a Hellinger distance can be used instead of the Batachariya distance. Further, in another embodiment in which the object feature amount f t, u is a moving average or one frame feature amount, the in-object deviation degree at , u is expressed by the following expression using the individual representative amount A u and the object feature amount f t, It can be calculated as Mahalanobis distance from u . The distance according to the equation (4) is effective when priority is given to the importance calculation processing speed.
図4は物体内逸脱度の算出処理の一例を示す模式図であり、第58フレームにおける物体#1の物体内逸脱度a58,1を算出する処理をイメージ的に示している。ここでは特徴量空間を2次元で簡略表示している。図において、白丸は1フレームの特徴量、黒三角は物体#1の個別代表量A1を構成する平均ベクトルμ1であり、点線は当該個別代表量A1を構成する共分散行列Σ1により得られる、平均ベクトルμ1から3シグマの範囲を示している。また、白抜き矢印は物体内逸脱度a58,1に対応する。白三角はp=1としたときの第58小区間における物体#1の特徴量の平均ベクトルμ58,1であり、一点鎖線は当該第58小区間における物体#1の特徴量の共分散行列Σ58,1により得られる、平均ベクトルμ58,1から3シグマの範囲を示している。
FIG. 4 is a schematic diagram showing an example of the calculation process of the in-object departure degree, and conceptually shows the process of calculating the in-object departure degree a 58,1 of the
図4(a)は物体特徴量ft,uを1フレームの特徴量とした場合の例であり、N(μ1,Σ1)と白丸の間のマハラノビス距離(実際には共分散行列Σ1で正規化されている)が物体内逸脱度a58,1となる。 FIG. 4A shows an example in which the object feature value f t, u is a feature value of one frame, and the Mahalanobis distance (actually a covariance matrix Σ between N (μ 1 , Σ 1 ) and a white circle. Is normalized by 1 ) to be the in-object deviation a 58,1 .
図4(b)は物体特徴量ft,uを移動平均とした場合の例であり、f58,1=μ58,1である。N(μ1,Σ1)とμ58,1の間のマハラノビス距離(実際には共分散行列Σ1で正規化されている)が物体内逸脱度a58,1となる。 FIG. 4B shows an example in which the object feature value f t, u is a moving average, and f 58,1 = μ 58,1 . N (μ 1, Σ 1) Mahalanobis distance between the μ 58,1 (actually been normalized by the covariance matrix sigma 1) becomes an object within deviance a 58,1.
図4(c)は物体特徴量ft,uを小区間の分布とした場合の例であり、f58,1=N(μ58,1,Σ58,1)である。N(μ1,Σ1)とN(μ58,1,Σ58,1)の間のバタチャリヤ距離(実際には共分散行列Σ1及びΣ58,1で正規化されている)が物体内逸脱度a58,1となる。 FIG. 4C shows an example in which the object feature quantity f t, u is a small section distribution, and f 58,1 = N (μ 58,1 , Σ 58,1 ). The virtual distance between N (μ 1 , Σ 1 ) and N (μ 58,1 , Σ 58,1 ) (actually normalized by the covariance matrices Σ 1 and Σ 58,1 ) Deviation a 58,1 .
さらに処理速度を優先する別の実施形態においては、分散による正規化を省くこともできる。この場合、物体uの個別代表量Auを当該物体uの出現区間における物体特徴量ft,uの平均値とし、当該物体uの各物体特徴量ft,uとその平均値との間のユークリッド距離を物体内逸脱度at,uとして算出する。なお上述したように、平均値の代わりに最頻値または中央値などを用いることもできる。 Further, in another embodiment in which processing speed is prioritized, normalization by dispersion can be omitted. In this case, the individual representative amount A u of the object u is set as an average value of the object feature amounts f t, u in the appearance section of the object u, and between each object feature amount f t, u of the object u and the average value thereof. The Euclidean distance is calculated as the in-object deviation degree at , u . As described above, the mode value or the median value can be used instead of the average value.
また別の実施形態においては物体特徴量ft,uを小区間における特徴量の分散、個別代表量Auを出現区間における特徴量の分散とし、これらの分散の間の距離を物体内逸脱度at,uとして算出することもできる。 In another embodiment, the object feature quantity f t, u is the variance of the feature quantity in the small section, the individual representative quantity A u is the variance of the feature quantity in the appearance section, and the distance between these variances is the in-object deviation degree. It can also be calculated as at , u .
このように算出される物体内逸脱度は物体ごとに算出される代表特徴量を基準としているため、各物体の動きや外見が一時的に変化したフレームにおいて高い物体内逸脱度が算出され、当該物体が専らとっていた動きや外見が現れているフレームには低い物体内逸脱度が算出される。例えば、大多数の人物が歩いている中で小走りしていた特定人物が一時的に速度を落とすという監視映像22においては、特定人物が一時的に速度を落としたフレームに高い物体内逸脱度が算出され、小走りしていたフレームには低い物体内逸脱度が算出される。
Since the in-object deviation calculated in this way is based on the representative feature value calculated for each object, a high in-object deviation is calculated in a frame in which the movement or appearance of each object is temporarily changed. A low degree of deviation in the object is calculated for a frame in which the movement or appearance that the object is exclusively appearing. For example, in a
物体間逸脱度算出部351は、監視映像22内で追跡された複数の移動物体の物体特徴量ft,uを統計分析して集団代表量Bを算出し、物体uごとの個別代表量Auの集団代表量Bからの距離buを物体間逸脱度として算出する。物体間逸脱度の算出に27次元の物体特徴量をそのまま用いることもできるが、本実施形態ではそのうち図3に示す第1〜11次成分を物体間逸脱度の算出に用いる。エッジ特徴や色特徴を大局的に分析した全身エッジ特徴、全身色特徴はフレーム単位の細かな変化に左右されにくい一方で、特異な服装など人物間の違いを比較しやすいため物体間逸脱度の元データとして適している。また、物体位置は特異な位置からの入場・退場、特異なエリアへの移動など人物間の違いを比較しやすいため物体間逸脱度の元データとして適している。
The inter-object deviation
集団代表量Bは追跡された全物体の物体特徴量ft,uの分布を近似した分布関数とすることができる。具体的には、分布関数として正規分布関数を用いる。全物体の物体特徴量ft,uの平均ベクトルμと共分散行列Σを算出し、これらを正規分布関数に適用して集団代表量BをB=N(μ,Σ)と定める。物体間逸脱度の算出に用いる個別代表量Auは物体内逸脱度算出部350における処理と同様にして算出する。但し、算出対象が第1〜11次成分である点が物体内逸脱度の算出の場合と異なる。
The collective representative quantity B can be a distribution function approximating the distribution of the object feature quantities f t, u of all the objects tracked. Specifically, a normal distribution function is used as the distribution function. An average vector μ and a covariance matrix Σ of object feature values f t, u of all objects are calculated, and these are applied to a normal distribution function to determine a collective representative value B as B = N (μ, Σ). The individual representative amount A u used for calculating the deviation degree between objects is calculated in the same manner as the processing in the deviation
物体uの物体間逸脱度buは集団代表量Bと当該物体の個別代表量Auとのバタチャリヤ距離として算出できる。なお、バタチャリヤ距離に代えてカルバックライブラー距離、Hellinger距離など公知の各種分布間距離尺度を用いることも可能である。 The inter-object deviation b u of the object u can be calculated as a batch rear distance between the collective representative amount B and the individual representative amount A u of the object. In addition, it is also possible to use various known inter-distribution distance scales such as a Cullback libler distance and a Hellinger distance instead of the Batachariya distance.
重要度の算出処理速度を優先する別の実施形態においては、個別代表量Auを上記平均ベクトルμuで代表させ、物体uの物体間逸脱度buを集団代表量Bと当該物体の個別代表量Auとのマハラノビス距離として算出する。 In another embodiment in which priority calculation processing speed is prioritized, the individual representative amount A u is represented by the average vector μ u , and the inter-object deviation b u of the object u is represented by the collective representative amount B and the individual of the object. It is calculated as the Mahalanobis distance between the representative amount a u.
さらに処理速度を優先する別の実施形態においては、分散による正規化を省くこともできる。この場合、集団代表量Bを全物体特徴量ft,uの平均ベクトルμ、物体uの個別代表量Auを当該物体uの出現区間における物体特徴量ft,uの平均ベクトルμuとし、全物体特徴量ft,uの平均ベクトルμと各物体uの各物体特徴量ft,uの平均ベクトルμuとの間のユークリッド距離を当該物体uの物体間逸脱度buとして算出する。なお平均値の代わりに最頻値または中央値などを用いることもできる。 Further, in another embodiment in which processing speed is prioritized, normalization by dispersion can be omitted. In this case, the population representative amount B all object feature amount f t, the average vector of u mu, the individual representative amount A u object u object feature amount f t in appearance section of the object u, the mean vector mu u of u , calculated total object feature amount f t, the mean vector mu and each object feature amount f t of each object u of u, the Euclidean distance between the mean vector mu u of u as the object between deviance b u of the object u To do. The mode value or the median value can be used instead of the average value.
また別の実施形態においては、集団代表量Bを上記分散Σ、個別代表量Auを上記分散Σuとし、これら分散の間の距離を物体間逸脱度buとして算出することもできる。 In another embodiment, the collective representative quantity B can be calculated as the variance Σ, the individual representative quantity A u can be the variance Σ u, and the distance between these variances can be calculated as the inter-object deviation b u .
このように算出される物体間逸脱度は監視映像22全体から算出される集団代表量を基準としているため、大多数の物体とは動きや外見が異なる物体に対して高い物体間逸脱度が算出され、大多数の物体と動きや外見が似ている物体に対して低い物体間逸脱度が算出される。例えば、大多数の人物が歩いている中で小走りしていた特定人物が一時的に速度を落とす上述の例では、小走りしていたこの特定人物に対して高い物体間逸脱度が算出され、歩いている大多数の人物には低い物体間逸脱度が算出される。
Since the inter-object deviation calculated in this way is based on the collective representative amount calculated from the
逸脱度合成部352はフレームごとに物体内逸脱度と物体間逸脱度とに応じて当該フレームの重要度を算出する。具体的には次式に基づいて、フレームtごとに物体内逸脱度at,uと物体間逸脱度buを重み付け加算して当該フレームの重要度ctを算出する。なお(5)式の総和演算ではフレームt内の移動物体の集合U(t)に属する全ての移動物体uについての逸脱度が合算される。
The deviation
ここでλは物体内逸脱度と物体間逸脱度との重み調整用のパラメータであり、0≦λ≦1なる範囲で設定される。例えば0.5に設定すればよい。 Here, λ is a parameter for adjusting the weight of the in-object deviation and the inter-object deviation, and is set in a range of 0 ≦ λ ≦ 1. For example, it may be set to 0.5.
別の実施形態において逸脱度合成部352はフレームtごとに当該フレーム内の全ての移動物体の物体内逸脱度at,u及び物体間逸脱度buのうちの最大値を当該フレームの重要度ctとして算出してもよい。この場合の重要度ctは次式で表される。(6)式の重要度ctは(5)式と異なりフレーム内の移動物体の数に影響されないので、人数が少ないシーンでも追跡物体内のフレームごとの逸脱度合が高い箇所が優先的に選択されることになる。
In another embodiment, the deviation
図5は物体内逸脱度、物体間逸脱度及び重要度の一例を示す説明図であり、図2に示した例に対応しており、監視映像22にて3つの物体#1〜#3について追跡フレームが存在する。データ601は物体#1〜#3について算出された物体内逸脱度の例であり、物体#1の物体内逸脱度はその出現区間である第56フレーム〜第61フレームに対して算出され、その値は1.0,1.5,5.6,2.0,1.8,1.0である。物体#2の物体内逸脱度はその出現区間である第58フレーム〜第65フレームにおいて算出され、その値は1.2,3.4,3.0,4.5,5.2,2.6,2.0,1.7である。また、物体#3の物体内逸脱度はその出現区間である第112フレーム〜第116フレームに対して算出され、その値は1.1,1.5,1.7,1.5,1.2である。なお、物体が検出されなかった第66フレーム〜第111フレームに対しては物体内逸脱度が算出されない。
FIG. 5 is an explanatory diagram showing an example of the in-object deviation, the inter-object deviation, and the importance, corresponding to the example shown in FIG. There is a tracking frame.
データ602は物体#1〜#3について算出された物体間逸脱度の例であり、物体#1の物体間逸脱度は2.0、物体#2の物体間逸脱度は2.2、物体#3の物体間逸脱度は4.9である。
データ603は(5)式によりデータ601の物体内逸脱度とデータ602の物体間逸脱度を合成した重要度の例である。第56フレーム〜第65フレームに対する重要度は1.5,1.75,5.5,4.8,4.5,4.85,3.7,2.4,2.1,1.95と算出され、第112フレーム〜第116フレームに対する重要度は3.0,3.2,3.3,3.2,3.05と算出された。
例えば第58フレームに関しては、a58,1=5.6,b1=2.0,a58,2=1.2,b2=2.2であり、これらをλ=0.5とした(5)式に適用して、c58={(1−0.5)×5.6+0.5×2.0+(1−0.5)×1.2+0.5×2.2}=5.5と算出される。また、(5)式に代えて(6)式を用いた場合はc58=max{5.6,2.0,1.2,2.2}=5.6となる。 For example, for the 58th frame, a 58,1 = 5.6, b 1 = 2.0, a 58,2 = 1.2, b 2 = 2.2, and these are set to λ = 0.5. Applying to the equation (5), c 58 = {(1-0.5) × 5.6 + 0.5 × 2.0 + (1-0.5) × 1.2 + 0.5 × 2.2} = 5 .5. Further, when Expression (6) is used instead of Expression (5), c 58 = max {5.6, 2.0, 1.2, 2.2} = 5.6.
図5に示す例において、物体#1,#2の物体間逸脱度は低めであるため、これらの物体の出現区間全体が特異なシーンであるとは判定できない。しかし、物体#1の物体内逸脱度は第58フレームで高くなっており、また物体#2の物体内逸脱度は第59フレーム〜第62フレームで高くなっている。このことから、それぞれの物体の出現区間を構成する幾つかのフレームに対して特異なシーンを判定できることが分かる。つまり物体#1,#2に対しては物体内逸脱度が重要シーンを判定するために有効であることが分かる。
In the example shown in FIG. 5, since the degree of deviation between the
一方、物体#3の物体内逸脱度は第112フレーム〜第116フレームのいずれにおいても低めであるが、物体間逸脱度は高くなっている。このことから、物体#3の出現区間を他の物体の出現区間に照らせば物体#3の出現区間全体を特異なシーンと判定できることが分かる。つまり物体#3に対しては物体間逸脱度が重要シーンを判定するために有効であることが分かる。
On the other hand, the in-object departure degree of the
そして物体内逸脱度と物体間逸脱度を合成した重要度では、物体#1が特異である第58フレーム、物体#2が特異である第59フレーム〜第62フレーム、及び物体#3が特異である第112フレーム〜第116フレームのそれぞれに高めの値が算出されており、物体間逸脱度による大局的な観点と物体内逸脱度による局所的な観点との両方により漏れの少ない重要シーン判定が可能になる。
In the importance obtained by synthesizing the in-object deviation and the inter-object deviation, the 58th frame in which the
逸脱度合成部352が生成する、追跡フレーム番号と重要度とを対応付けたデータ603は記憶部31に重要度データ311として格納される。
要約映像作成部36は重要度データ311を参照し、監視映像22の中から重要度が高いフレームを優先して指定フレーム数のフレームを選出することにより当該監視映像を間引いて、当該監視映像の総フレーム数より少なく設定されたフレーム数の要約映像を作成する。そして、作成した要約映像を表示装置4に出力する。ここで、要約映像を撮像時と同じフレーム間隔で順次出力することで、重要度の高い重要シーンは撮像時と同じフレーム間隔で再生され、それ以外のシーンは間引かれているため高速再生される。
The summary
具体的には要約映像作成部36は動的計画法(DP;Dynamic Programming)を用い、監視映像22の中から所定範囲内のスキップ数でその重要度の総和が最大となるフレームを選出する。要約映像作成部36は監視映像22のうち物体が検出されていないフレームを除き、追跡フレームのみからなる部分に動的計画法を適用する。例えば、図5に例示した第56フレーム〜第116フレームを要約対象の監視映像とすると、これら61フレームのうち物体が検出されていない第66フレーム〜第111フレームを除いた残り15フレームに動的計画法が適用される。
Specifically, the summary
その適用に際しては、最小スキップ数は0、一方、最大スキップ数は(総追跡フレーム数÷指定フレーム数×α−1)に設定することができる。αは全ての選択が最大スキップ数で行なわれないようにするための調整値でα>1である。例えばα=2とすることができる。例えば、上述した総追跡フレーム数が15フレームの例で指定フレーム数を10フレームとした場合、最大スキップ数は15÷10×2−1=2フレームとなる。 In the application, the minimum number of skips can be set to 0, while the maximum number of skips can be set to (total number of tracked frames / designated number of frames × α−1). α is an adjustment value for preventing all selections from being made with the maximum number of skips, and α> 1. For example, α = 2 can be set. For example, when the total number of tracking frames is 15 and the designated number of frames is 10, the maximum number of skips is 15/10 × 2-1 = 2 frames.
スキップ数の選択範囲は、動的計画法における傾斜制限として規定できる。図6は上述した最大スキップ数が2フレームに設定されるときの傾斜制限を示す模式図であり、横軸が要約映像のフレーム番号に対応し、縦軸が監視映像のフレーム番号に対応している。図6において、白丸は要約映像のフレームと監視映像のフレームの格子点であり、2つの格子点を結ぶ実線は局所パスを表している。スキップ数の選択範囲が0,1,2となることに対応し、要約映像のフレーム番号が1増加するときに監視映像22のフレーム番号の増加数が1,2,3である局所パスが設定される。
The selection range of the number of skips can be defined as a slope limit in dynamic programming. FIG. 6 is a schematic diagram showing the tilt restriction when the above-mentioned maximum skip number is set to 2 frames. The horizontal axis corresponds to the frame number of the summary video, and the vertical axis corresponds to the frame number of the monitoring video. Yes. In FIG. 6, white circles are grid points of the summary video frame and the surveillance video frame, and a solid line connecting the two grid points represents a local path. Corresponding to the selection range of skip number being 0, 1, 2, and when the summary video frame number is incremented by 1, a local path is set in which the increment number of the frame number of the
局所パスにより接続される格子点に対応する監視映像22のフレームの重要度が当該局所パスを選択するときのコストに相当する。要約映像作成部36は動的計画法により選択された局所パスと対応してそのコストを累積する。指定フレーム数の各格子点を結ぶパスに沿って累積されたコストが重要度の総和であり、要約映像作成部36はそれぞれが局所パスを組み合わせてなる複数のパスのうち、当該コストの累積値を最大にするパスを求める。
The importance of the frame of the monitoring
ここで、要約映像において移動物体が画像内の様々な位置から登場したり消失したりするとこれを目で追う監視員に大きなストレスがかかる。そこで、各物体の出現区間の始端フレーム及び終端フレームをその重要度とは関係なく強制選択して要約映像を作成する。動的計画法を用いる場合、各物体の出現区間の始端フレーム及び終端フレームをまたぐ局所パスの選択を禁止することでこの制御を実現できる。こうすることで要約映像中において各移動物体が実際の出現位置から登場し実際の退場位置から消失するので、監視員のストレスを軽減することができる。 Here, if a moving object appears or disappears from various positions in the image in the summary video, a great stress is applied to the observer who follows this. Therefore, a summary video is created by forcibly selecting the start frame and end frame of the appearance section of each object regardless of their importance. When dynamic programming is used, this control can be realized by prohibiting selection of a local path across the start frame and end frame of the appearance section of each object. By doing so, each moving object appears from the actual appearance position and disappears from the actual exit position in the summary video, so that the stress of the observer can be reduced.
図7は上述した監視映像22の例及び動的計画法の設定例のもとで動的計画法が選択し得る格子点と局所パスを示すグラフである。縦軸は監視映像22における追跡フレーム番号、横軸は作成する要約映像のフレーム番号に当たる。白丸及び黒丸は選択し得る格子点であり、そのうち黒丸は強制選択される格子点である。また、丸と丸を結ぶ線は図6の傾斜制限と強制選択の拘束条件のもとで選択し得る局所パスである。さらにコストが最大となるという条件を課すことにより、この例では、図7にて太線で示すパスが選択され、要約映像の第1〜10フレームとして監視映像22の第56,58,59,60,61,63,65,112,114,116フレームがそれぞれ選出される。
FIG. 7 is a graph showing lattice points and local paths that can be selected by the dynamic programming based on the example of the monitoring
動的計画法を用いると最大フレーム間隔以内で連続性のある要約映像が作成され、重要度が高いフレームのみならずその間の「つなぎ」のフレームが適度に選択されるので、要約映像中に次々と登場する移動物体を目で追う監視員へのストレスを軽減可能な要約映像を作成することができる。 With dynamic programming, a continuous summary video is created within the maximum frame interval, and not only the frames with high importance but also the “connection” frames between them are selected appropriately. It is possible to create a summary video that can reduce the stress on the observer who follows the moving object that appears.
表示装置4は信号処理部32から入力される要約映像を表示する液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等である。ユーザーは表示装置4に再生表示される要約映像を見ることにより監視映像22を早見することができる。
The
次に映像処理装置1の動作について映像要約装置3の動作を中心に説明する。撮像部20は予め設定されたフレーム間隔で監視空間を撮像して、監視映像22を録画部21へ出力する。録画部21は監視映像22を記録する。図8は映像要約装置3の動作を説明する概略のフロー図である。ユーザーは設定入力部30を用いて要約対象とする監視映像22を指定し、また指定フレーム数を入力する(S1)。
Next, the operation of the
信号処理部32はステップS1にて指定された監視映像22を録画部21から読み出す(S2)。信号処理部32の物体追跡部33は、読み出された監視映像22を処理して当該監視映像22に撮像されている物体を個々に追跡し、追跡結果を記憶部31の物体情報310に記憶させる(S3)。また、信号処理部32の物体特徴抽出部34は、各物体の追跡フレームそれぞれから当該物体の特徴量を抽出し、抽出された各特徴量を記憶部31の物体情報310に記憶させる(S4)。そして、信号処理部32の重要度算出部35は、物体情報310を参照して各追跡フレームに対し、当該フレームに撮像されている物体の行動の特異性を表す重要度を算出する(S5)。
The
図9は重要度算出部35による処理の概略のフロー図である。物体内逸脱度算出部350及び物体間逸脱度算出部351は、物体ごとにその全追跡フレームの物体特徴量を統計分析することにより各物体の個別代表量を算出し記憶部31に記憶させる(S50)。そして、物体内逸脱度算出部350は各物体の追跡フレームごとに、当該追跡フレームにおける当該物体の物体特徴量と当該物体の個別代表量との間の距離を物体内逸脱度として算出し記憶部31に記憶させる(S51)。一方、物体間逸脱度算出部351は図8のステップS4にて抽出された全ての物体特徴量を統計分析することにより集団代表量を算出する(S52)。そして、物体間逸脱度算出部351はステップS50にて算出された各物体の個別代表量と集団代表量との間の距離を当該物体の物体間逸脱度として算出し記憶部31に記憶させる(S53)。
FIG. 9 is a schematic flowchart of processing by the importance
逸脱度合成部352はステップS51にて算出された物体内逸脱度とステップS53にて算出された物体間逸脱度とを追跡フレームごとに合成して重要度を算出する。重要度算出部35は算出された重要度を追跡フレーム番号と対応付けて、記憶部31に重要度データ311として記憶させる。なお、このとき重要度算出部35は追跡フレーム以外のフレームのフレーム番号と重要度の最低値0を対応付けた情報を重要度データ311に加えてもよい。
The departure
図9に示す重要度算出部35による処理が終わると処理は再び図8に戻り、信号処理部32の要約映像作成部36が、動的計画法を用いて重要度を最大化する指定フレーム数の要約映像を作成する(S6)。具体的には、要約映像作成部36は、まず総追跡フレーム数を算出し、総追跡フレーム数と指定フレーム数とから最大スキップ数を求めて動的計画法の傾斜制限を設定する。次に要約映像作成部36は重要度データ311に基づいて追跡フレームのフレーム番号系列を作成し、動的計画法を用いて当該系列中のフレームから傾斜制限の範囲内で指定フレーム数と同数の部分系列を作成して、系列を構成する追跡フレームの重要度の総和が最大となるような部分系列を選び出す。ただし部分系列の作成にあたり、各物体の出現区間の始端フレーム及び終端フレームは強制的に部分系列に組み込む。重要度の総和が最大となるような選び出された部分系列は要約映像を構成するフレームが監視映像22のフレーム番号で表現されたものとなっている。要約映像作成部36は選び出された部分系列が示すフレームを監視映像22から抜き出して時系列順に並べることで要約映像を作成し、記憶部31に記憶させる。
When the process by the
要約映像作成部36は、記憶部31に記憶させた要約映像を撮像時のフレーム間隔で順次表示装置4に出力することで要約映像を再生する(S7)。
The summary
上述の実施形態では重要度算出部35は物体内逸脱度と物体間逸脱度から重要度を定めたが、物体内逸脱度のみから重要度を算出してもよい。また、物体内逸脱度と物体間逸脱度とを合成した重要度と物体内逸脱度のみから算出した重要度とのいずれかをユーザーに選択させて、選択された方法で重要度を算出してもよい。
In the above-described embodiment, the
要約映像作成部36は監視映像22の先頭フレームから順次重要度を累積して累積値が閾値T2に達したときのフレームを要約映像のフレームとして選択し、1つのフレームが選択されると累積値を閾値T2だけ減じる処理または累積値を0リセットする処理をした後、同様の重要度累積を開始して次のフレームを選択するという処理を、監視映像22の終端フレームまで繰り返すことにより要約映像を作成してもよい。このときの閾値T2は(監視映像22の全フレームに対する重要度の和÷指定フレーム数)と設定することができる。この処理方法によれば、動的計画法を用いる場合と比べて計算量が削減される。
The summary
また、各物体の出現区間の始端フレーム及び終端フレームのいずれか一方のみを強制的に要約映像に組み込む構成としてもよい。 Alternatively, only one of the start frame and the end frame of the appearance section of each object may be forcibly incorporated into the summary video.
また、要約映像作成部36は重要度が高い順に指定フレーム数と同数のフレームを選出して選出したフレームをフレーム番号順に並べることにより要約映像を作成してもよい。または、各フレームの重要度に対して一律の閾値T3を適用して重要度が閾値T3を超えたフレームを並べることにより要約映像を作成することもできる。この場合、閾値T3を順次増加または減少させて指定フレーム数の要約映像となるよう調整することができる。なお、これらの構成では、いずれも要約映像に「つなぎ」が入らない分、要約映像における重要シーンの密度が高くなる。この点で、熟練ユーザーに好適であると言える。
The summary
上記映像処理装置1は監視映像22から作成された要約映像で録画部21に記憶されている当該監視映像を置き換えることもできる。こうすることで監視価値の高いフレームを残し監視価値の低いフレームが削除されるので監視映像22の監視価値を一定に保ちながら、録画部21のデータ量を削減できる。
The
また、上記実施形態において重要度算出部35は移動物体それぞれの出現区間全体を統計分析して個別特徴量を算出したが、出現区間の一部区間を統計分析してもよい。例えば、監視映像22内に予め設定したエリア内にて追跡された区間だけを統計分析の対象とすることができる。
In the above-described embodiment, the
また、上記実施形態において重要度算出部35は全移動物体を統計分析して集団特徴量を算出したが、一部の移動物体を統計分析してもよい。例えば、監視映像22の撮像時間帯を分けて各時間帯に追跡された移動物体だけを統計分析の対象とすることができる。
In the above embodiment, the
1 映像処理装置、2 映像記録装置、3 映像要約装置、4 表示装置、20 撮像部、21 録画部、30 設定入力部、31 記憶部、32 信号処理部、33 物体追跡部、34 物体特徴抽出部、35 重要度算出部、36 要約映像作成部、310 物体情報、311 重要度データ、350 物体内逸脱度算出部、351 物体間逸脱度算出部、352 逸脱度合成部。
DESCRIPTION OF
Claims (5)
前記監視映像を記憶する記憶部と、
画像解析により前記監視映像中の移動物体の物体像を追跡し、前記移動物体が追跡された追跡フレームと当該移動物体の前記物体像の対応情報を生成する物体追跡部と、
前記物体像から前記移動物体の動き又は/及び外見の特徴量を抽出する物体特徴抽出部と、
前記特徴量を前記移動物体ごとに統計分析して当該特徴量の分布を代表する個別代表量を求め、前記各移動物体の前記個別代表量と当該移動物体の前記追跡フレームごとの前記特徴量との距離である第1距離を算出して当該第1距離が大きな前記追跡フレームほど高い監視価値を算出する監視価値算出部と、
を備えたことを特徴とする映像処理装置。 A video processing device that generates information of a frame to be watched in a monitoring video composed of a plurality of frames,
A storage unit for storing the monitoring video;
An object tracking unit that tracks an object image of a moving object in the monitoring video by image analysis, and generates correspondence information between a tracking frame in which the moving object is tracked and the object image of the moving object;
An object feature extraction unit that extracts a movement or / and appearance feature amount of the moving object from the object image;
The feature amount is statistically analyzed for each moving object to obtain an individual representative amount representing the distribution of the feature amount, and the individual representative amount of each moving object and the feature amount for each tracking frame of the moving object A monitoring value calculation unit that calculates a first monitoring value that is a distance of the tracking frame and calculates a higher monitoring value for the tracking frame having a larger first distance;
A video processing apparatus comprising:
前記監視価値算出部は、前記物体追跡部により追跡された複数の前記移動物体の前記特徴量を統計分析して当該特徴量を代表する集団代表量を求め、前記集団代表量と前記各移動物体の前記個別代表量との距離である第2距離を算出して、前記各追跡フレームにおける前記移動物体の前記第1距離及び当該追跡フレームにて追跡された移動物体の前記第2距離に応じて前記監視価値を算出すること、を特徴とする映像処理装置。 The video processing apparatus according to claim 1,
The monitoring value calculation unit statistically analyzes the feature amount of the plurality of moving objects tracked by the object tracking unit to obtain a group representative amount representing the feature amount, and the group representative amount and each moving object And calculating a second distance that is a distance from the individual representative amount of the moving object according to the first distance of the moving object in each tracking frame and the second distance of the moving object tracked in the tracking frame. A video processing apparatus characterized by calculating the monitoring value.
前記監視映像から前記監視価値が高い前記追跡フレームほど優先して選出することにより当該監視映像を間引いて、当該監視映像の総フレーム数より少なく設定されたフレーム数の要約映像を作成する要約映像作成部を有すること、を特徴とする映像処理装置。 The video processing apparatus according to claim 1, further comprising:
Summary video creation for creating a summary video having a set number of frames smaller than the total number of frames of the monitoring video by thinning out the monitoring video by preferentially selecting the tracking frame having a higher monitoring value from the monitoring video A video processing apparatus.
前記要約映像作成部は、前記各移動物体の一連の前記追跡フレームのうち始端フレームと終端フレームとの予め定められた少なくとも一方をそれらの前記監視価値に関係なく選出すること、を特徴とする映像処理装置。 The video processing apparatus according to claim 3.
The summary video creation unit selects at least one of a start frame and a termination frame in a series of the tracking frames of each moving object regardless of the monitoring value thereof. Processing equipment.
前記要約映像作成部は、動的計画法を用い、前記要約映像を構成する前記追跡フレームの前記監視価値の総和を最大化すること、を特徴とする映像処理装置。 In the video processing device according to claim 3 or 4,
The summary video creation unit uses dynamic programming to maximize the total sum of the monitoring values of the tracking frames constituting the summary video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068103A JP5738028B2 (en) | 2011-03-25 | 2011-03-25 | Video processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011068103A JP5738028B2 (en) | 2011-03-25 | 2011-03-25 | Video processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012205097A true JP2012205097A (en) | 2012-10-22 |
JP5738028B2 JP5738028B2 (en) | 2015-06-17 |
Family
ID=47185590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011068103A Active JP5738028B2 (en) | 2011-03-25 | 2011-03-25 | Video processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5738028B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102916A (en) * | 2015-11-30 | 2017-06-08 | クロニクス カンパニー,リミテッド | Apparatus and method for high-speed searching of massive video evidence in digital forensic |
CN110121118A (en) * | 2019-06-17 | 2019-08-13 | 腾讯科技(深圳)有限公司 | Video clip localization method, device, computer equipment and storage medium |
JP2019192227A (en) * | 2013-06-28 | 2019-10-31 | 日本電気株式会社 | Video monitoring system, video processing method, and video processing program |
JP2020067770A (en) * | 2018-10-23 | 2020-04-30 | 日本電信電話株式会社 | Video management device, video management method, and program |
US11532160B2 (en) | 2016-11-07 | 2022-12-20 | Nec Corporation | Information processing apparatus, control method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000224542A (en) * | 1999-01-29 | 2000-08-11 | Hitachi Ltd | Image storage device, monitor system and storage medium |
JP2008234551A (en) * | 2007-03-23 | 2008-10-02 | Hitachi Ltd | Abnormality detection apparatus and abnormality detection program |
JP2011035571A (en) * | 2009-07-30 | 2011-02-17 | Masafumi Hagiwara | Suspicious behavior detection method and suspicious behavior detector |
-
2011
- 2011-03-25 JP JP2011068103A patent/JP5738028B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000224542A (en) * | 1999-01-29 | 2000-08-11 | Hitachi Ltd | Image storage device, monitor system and storage medium |
JP2008234551A (en) * | 2007-03-23 | 2008-10-02 | Hitachi Ltd | Abnormality detection apparatus and abnormality detection program |
JP2011035571A (en) * | 2009-07-30 | 2011-02-17 | Masafumi Hagiwara | Suspicious behavior detection method and suspicious behavior detector |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019192227A (en) * | 2013-06-28 | 2019-10-31 | 日本電気株式会社 | Video monitoring system, video processing method, and video processing program |
US11210526B2 (en) | 2013-06-28 | 2021-12-28 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
JP7014440B2 (en) | 2013-06-28 | 2022-02-01 | 日本電気株式会社 | Video surveillance system, video processing method and video processing program |
US11729347B2 (en) | 2013-06-28 | 2023-08-15 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
JP2017102916A (en) * | 2015-11-30 | 2017-06-08 | クロニクス カンパニー,リミテッド | Apparatus and method for high-speed searching of massive video evidence in digital forensic |
US11532160B2 (en) | 2016-11-07 | 2022-12-20 | Nec Corporation | Information processing apparatus, control method, and program |
JP2020067770A (en) * | 2018-10-23 | 2020-04-30 | 日本電信電話株式会社 | Video management device, video management method, and program |
WO2020085107A1 (en) * | 2018-10-23 | 2020-04-30 | 日本電信電話株式会社 | Video management device, video management method, and program |
JP7047702B2 (en) | 2018-10-23 | 2022-04-05 | 日本電信電話株式会社 | Video management equipment, video management methods and programs |
CN110121118A (en) * | 2019-06-17 | 2019-08-13 | 腾讯科技(深圳)有限公司 | Video clip localization method, device, computer equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5738028B2 (en) | 2015-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10984252B2 (en) | Apparatus and method for analyzing people flows in image | |
JP4840426B2 (en) | Electronic device, blurred image selection method and program | |
JP4973188B2 (en) | Video classification device, video classification program, video search device, and video search program | |
JP5738028B2 (en) | Video processing device | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US20130335635A1 (en) | Video Analysis Based on Sparse Registration and Multiple Domain Tracking | |
JP5771127B2 (en) | Attention level estimation device and program thereof | |
US7843512B2 (en) | Identifying key video frames | |
US11044404B1 (en) | High-precision detection of homogeneous object activity in a sequence of images | |
CN102004918A (en) | Image processing apparatus, image processing method, program, and electronic device | |
CN108600865A (en) | A kind of video abstraction generating method based on super-pixel segmentation | |
JP4886707B2 (en) | Object trajectory identification device, object trajectory identification method, and object trajectory identification program | |
JP6850751B2 (en) | Object tracking device, object tracking method, and computer program | |
JP4250619B2 (en) | Representative image extraction apparatus and method | |
Poonsri et al. | Improvement of fall detection using consecutive-frame voting | |
JP2017076288A (en) | Information processor, information processing method and program | |
JP4906588B2 (en) | Specific operation determination device, reference data generation device, specific operation determination program, and reference data generation program | |
JP6917788B2 (en) | Summary video generator and program | |
JP5002575B2 (en) | Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program | |
JP2014110020A (en) | Image processor, image processing method and image processing program | |
US20220309704A1 (en) | Image processing apparatus, image processing method and recording medium | |
JP3519672B2 (en) | Motion recognition processing device and motion analysis system for moving object | |
WO2021065937A1 (en) | Machine learning apparatus | |
JP4750758B2 (en) | Attention area extraction method, attention area extraction device, computer program, and recording medium | |
JP4835545B2 (en) | Image reproducing apparatus, imaging apparatus, image reproducing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150421 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5738028 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |