JP5758165B2 - Article detection device and stationary person detection device - Google Patents
Article detection device and stationary person detection device Download PDFInfo
- Publication number
- JP5758165B2 JP5758165B2 JP2011076495A JP2011076495A JP5758165B2 JP 5758165 B2 JP5758165 B2 JP 5758165B2 JP 2011076495 A JP2011076495 A JP 2011076495A JP 2011076495 A JP2011076495 A JP 2011076495A JP 5758165 B2 JP5758165 B2 JP 5758165B2
- Authority
- JP
- Japan
- Prior art keywords
- article
- area
- person
- stationary
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Description
本発明は、撮像した監視画像を画像解析することにより、監視空間内に存在する物体を検出する装置に関して、特に監視空間内で静止した物品および静止した人物の検出装置に関する。 The present invention relates to an apparatus for detecting an object existing in a monitoring space by performing image analysis on a captured monitoring image, and more particularly to an apparatus for detecting a stationary article and a stationary person in the monitoring space.
従来より、各種犯罪について監視カメラ映像から検出したいという要求がある。例えば、強盗犯が有人店舗などに押し入り、金庫に保管されている金品の強奪を試みる際に、店舗の従業員等による外部への通報や抵抗をおそれるあまり、従業員に対して攻撃を与えたり、手足をロープや粘着テープで拘束したりすることで身体の自由を奪うことがある。 Conventionally, there is a demand for detecting various crimes from surveillance camera images. For example, when a burglar breaks into a manned store and tries to seize money stored in a safe, he or she may attack the employee because of fear of reporting to the outside or resistance. In some cases, restraining the limbs with a rope or adhesive tape may deprive the body of freedom.
このように身体の自由を奪われた従業員等の被害者は、犯行後、店舗内に放置されることになるため、通報が遅れることによる強盗事件発生の発覚遅れや、怪我をした被害者の救護遅れなどが危惧される。 Victims such as employees who have been deprived of physical freedom in this way will be left in the store after the crime, so victims who were delayed in the detection of robbery incidents due to delayed reporting or who were injured There are concerns about delays in rescue.
このため、被害者が上記のような通報操作できない状態であることを自動的に検知し、通報を行う異常検知装置の提案が望まれている。 For this reason, the proposal of the abnormality detection apparatus which detects automatically that a victim is in the state which cannot perform the above notification operations, and reports is desired.
上記のような被害者の存在を画像処理による行動解析によって検出する場合、被害者の行動特徴はその場で静止して動かなくなるというものになる。しかしながら、人物によって持ち込まれた物品が監視領域内に放置された場合も同様の行動特徴を示してしまうため、人物と持ち込まれた物品とを区別することが難しい。 When the presence of a victim as described above is detected by behavior analysis using image processing, the behavior characteristics of the victim are such that they remain stationary and do not move. However, when an article brought in by a person is left in the monitoring area, the same behavioral characteristics are exhibited, so that it is difficult to distinguish the person from the brought-in article.
ここで、特許文献1には、「人物によって持ち込まれた物品が静止したこと」と「移動していた人物が静止したこと」を区別する手法として、人物は立ち止まっても完全に静止状態にはならないことを利用した検出装置が開示されている。 Here, as a technique for distinguishing between “the article brought in by a person is stationary” and “the person who has been moving is stationary” in Patent Document 1, even if the person stops, the person is in a completely stationary state. A detection device using what has not been disclosed is disclosed.
しかし、特許文献1に記載の技術により、「物品の静止」と「人物の静止」を区別することが困難な場合もある。例えば、押し込み強盗からの攻撃によって被害者が気絶してしまった場合は、人物であっても完全な静止状態になってしまうため、物品との区別は難しい。 However, there is a case where it is difficult to distinguish “stationary of an article” and “stationary of a person” by the technique described in Patent Document 1. For example, if a victim is fainted by an attack from an intrusion robbery, even a person will be in a completely stationary state, so it is difficult to distinguish it from an article.
本発明は、持ち込まれた物品を精度よく判定すること、および放置された人物との識別を実現し、放置された人物を精度よく検知することを目的とする。 An object of the present invention is to accurately determine an article that has been brought in, and to identify a left person and accurately detect a left person.
本発明は、監視領域を撮影した監視画像を順次取得する画像取得部と、監視領域の背景が撮影された背景画像と、人物の外形を模した人物モデルを記憶する記憶部と、前記監視画像を処理して静止している物品を検出する制御部と、を具備する物品検出装置であって、前記制御部は、前記監視画像と前記背景画像から変化領域を抽出する変化領域抽出手段と、前記監視画像から抽出した前記変化領域に前記人物モデルを重ね、当該変化領域の内側でかつ当該人物モデルの外側である物品領域の当該監視画像における特徴を前記記憶部に記憶する物品特徴記憶手段と、前記順次取得された画像にて前記変化領域を時間的に追跡し、当該変化領域が静止しているかを判定し静止物体領域を検出する静止物体領域検出手段と、前記静止物体領域が検出されると、当該静止物体領域が前記記憶部に記憶された物品領域の特徴を有するかを判定し、前記物品領域の特徴を有する場合に当該静止物体領域が物品であると判定する物品判定手段と、を有することを特徴とする。
The present invention provides an image acquisition unit that sequentially acquires a monitoring image obtained by photographing a monitoring region, a background image obtained by photographing the background of the monitoring region, a storage unit that stores a person model imitating the outline of a person, and the monitoring image A control unit that detects a stationary article by processing the image, and the control unit includes a change area extraction unit that extracts a change area from the monitoring image and the background image; Article feature storage means for superimposing the person model on the change area extracted from the monitoring image , and storing in the storage section a feature in the monitoring image of an article area inside the change area and outside the person model; A stationary object region detecting means for tracking the variation region in the sequentially acquired images, determining whether the variation region is stationary, and detecting a stationary object region; and detecting the stationary object region. Once, the still object region is determined whether having the characteristics of the stored goods area in the storage unit, the still object region determines the article determination means that the article if it has a characteristic of the article area It is characterized by having.
また、前記物品領域の特徴は、物品領域における色別の出現頻度を示す色ヒストグラムであることが好適である。 Moreover, it is preferable that the feature of the article region is a color histogram indicating an appearance frequency for each color in the article region.
また、本発明に係る静止人物検出装置は、上述の物品検出装置を有するとともに、前記制御部は、前記検出した静止物体領域が前記物品領域の特徴を有さない場合に当該静止物体領域が静止人物領域であると判定する静止人物領域判定手段をさらに有することを特徴とする。 In addition, a stationary person detection apparatus according to the present invention includes the above-described article detection apparatus, and the control unit determines that the stationary object area is stationary when the detected stationary object area does not have the feature of the article area. It further has a still person area determining means for determining that it is a person area.
本発明によれば、監視領域内に持ち込まれた物品を効果的に検出することができ、当該持ち込まれた物品と識別することで静止人物の検出も行える。従って、被害者が押し込み強盗などによって動けない状態にされたという異常状態と、持ち込まれた物品が静止した正常状態を区別して誤通報を防止することができる。 According to the present invention, an article brought into the monitoring area can be detected effectively, and a stationary person can also be detected by identifying the article brought in. Accordingly, it is possible to prevent an erroneous report by distinguishing between an abnormal state in which the victim is in a state where the victim cannot move due to a pushing burglary or the like and a normal state in which the brought-in article is stationary.
以下、本発明の実施形態について、図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
「全体構成」
本実施形態に係る物品検出装置(静止人物検出装置)を含み、この装置にて静止した持ち込み物品ではなく静止人物が存在する異常シーンを検知して、警備センタ等へ通報する通報システム1について説明する。
"overall structure"
A report system 1 that includes an article detection apparatus (stationary person detection apparatus) according to the present embodiment, detects an abnormal scene in which a stationary person is present instead of a stationary carry-in article, and notifies a security center or the like. To do.
図1は、通報システム1の構成と配置のイメージを示した模式図である。 FIG. 1 is a schematic diagram showing an image of the configuration and arrangement of the notification system 1.
通報システム1は、物品検出装置(静止人物検出装置)2と、コントローラー3と、センタ装置5を含んで構成される。
The notification system 1 includes an article detection device (stationary person detection device) 2, a
物品検出装置(静止人物検出装置)2は、金庫6などの重要物が設置された部屋を監視空間とし、当該部屋の天井に設置される。物品検出装置(静止人物検出装置)2は、監視空間にて発生した異常シーンを検知すると異常信号を出力する。 The article detection device (stationary person detection device) 2 is installed on the ceiling of a room in which a room in which an important object such as a safe 6 is installed is used as a monitoring space. The article detection device (stationary person detection device) 2 outputs an abnormal signal when detecting an abnormal scene occurring in the monitoring space.
物品検出装置(静止人物検出装置)2は、通信線を介してコントローラー3に接続され、コントローラー3は電話回線またはインターネット回線等の広域通信網4を介して遠隔地に設置された警備センタ等のセンタ装置5と接続される。物品検出装置(静止人物検出装置)2が出力した異常信号はコントローラー3を介してセンタ装置5に送信される。
The article detection device (stationary person detection device) 2 is connected to a
「物品検出装置(静止人物検出装置)の構成」
図2は、物品検出装置(静止人物検出装置)2の構成を示したブロック図である。物品検出装置(静止人物検出装置)2は、撮像部20、記憶部21、出力部23および制御部22を含んで構成されている。
"Configuration of article detection device (stationary person detection device)"
FIG. 2 is a block diagram showing the configuration of the article detection device (stationary person detection device) 2. The article detection device (stationary person detection device) 2 includes an
なお、図1においては、物品検出装置(静止人物検出装置)2を監視領域の天井に設けたが、撮像部20のみを天井に設け、その他の装置は別の場所に設けてもよい。
In FIG. 1, the article detection device (stationary person detection device) 2 is provided on the ceiling of the monitoring area, but only the
(撮像部20)
撮像部20は、例えばCCD撮像素子などを利用した監視カメラである。この撮像部20は、通常は監視空間(監視領域)の天井に取り付けられている。また、その撮影は、ビデオ撮影のような連続撮影でもよいが、所定の時間間隔で監視領域を順次撮影することが好ましい。撮影された監視空間の監視画像は順次、制御部22へ出力される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。本実施形態において、撮像部20は魚眼レンズを備え、その光軸を鉛直下方に向けて設置されており、監視空間である部屋の全体を撮像する。
(Imaging unit 20)
The
(記憶部21)
記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。フラッシュメモリや,ハードディスクなどを利用してもよい。記憶部21は、各種プログラムや各種データを記憶し、制御部22との間でこれらの情報を入出力する。記憶部21において記憶する各種データには、背景差分処理に必要な背景画像210、物品領域の抽出に必要な人物モデル211が含まれる。さらに、記憶部21には、物体領域の追跡に必要な物体領域の特徴を記憶する追跡特徴記憶部212、抽出した物品領域の特徴を記憶する物品特徴記憶部213も含まれる。
(Storage unit 21)
The
(制御部22)
制御部22は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部21からプログラムを読み出して実行することで
物体領域抽出手段220、物体追跡手段221、物品領域抽出手段222、静止物体領域検出手段223、異常判定手段224として機能する。
(Control unit 22)
The
(出力部)
出力部23は、異常信号を物品検出装置(静止人物検出装置)2の外部へ出力する通信手段である。出力部23は、制御部22の異常判定手段224から異常信号が入力されると、当該異常信号をコントローラー3へ出力する。
(Output part)
The
「物品検出装置(静止人物検出装置)2における処理フロー」
図3は、物品検出装置(静止人物検出装置)2における異常検出処理を示したフローチャートである。各種のデータ処理は基本的に制御部22において実施される。
"Processing flow in article detection device (stationary person detection device) 2"
FIG. 3 is a flowchart showing an abnormality detection process in the article detection apparatus (stationary person detection apparatus) 2. Various data processing is basically performed in the
(S1:初期化)
電源が投入されると、各部が初期化され動作を開始する。初期化には起動直後の監視画像を記憶部21に背景画像210として記憶させる処理を含む。ここで、背景画像については、人が立ち入らない状態において、毎回取得し直すことが好適であるが、ある程度固定的な画面を記憶しておくなど各種の手段を採用することができる。
(S1: Initialization)
When the power is turned on, each unit is initialized and starts operating. The initialization includes a process of storing the monitoring image immediately after startup in the
(S2:監視画像取得)
初期化が終了した場合には、監視画像を取得する。すなわち、撮像部20は、監視空間を撮像する度に監視画像を出力し、制御部22はこれを取得する。S2において、現時刻の監視画像が取得され、これが制御部に送られる。
(S2: Monitor image acquisition)
When the initialization is completed, a monitoring image is acquired. That is, the
(S3:背景差分・ラベリング)
制御部22では、撮像部から送られてきた現時刻における監視画像について背景を除去して、物体領域を抽出し、得られた物体領域をラベリングする。物体領域抽出手段220は、撮像部20から得られた監視画像と、記憶部21に記憶されている背景画像210を比較し、背景画像210との差分が閾値以上である画素を変化画素として抽出する。なお、差分特徴量として、輝度、色、エッジ強度・方向などを用いることができる。閾値は、事前に決められた規定値を用いてもよいし、動的に変更してもよい。
(S3: Background difference / labeling)
The
また、差分演算後に正規化相関等による光・影領域の除去、膨張収縮処理によるゴマ塩状ノイズの除去を行うことが望ましい。 Further, it is desirable to remove light / shadow regions by normalized correlation after the difference calculation, and to remove sesame salt-like noise by expansion / contraction processing.
物体領域抽出手段220は、変化画素の抽出後、ラベリングを行う。ラベリングは、空間的に接続する画素に同一の番号を振る処理である。この処理により、変化画素の塊(集合)ごとに個別の番号が振られることになる。以下、この塊を物体領域と称する。なお、抽出された物体領域には、人物領域と、物品などを含む持ち込み物体領域が含まれる。
The object
(S4:物体追跡)
物体領域抽出手段220により抽出された物体領域についてのデータは物体追跡手段221に供給される。物体追跡手段221は、前時刻までに物体領域抽出手段220により抽出され、記憶部21の追跡特徴記憶部212に記憶されている各物体領域に関する追跡特徴と、現時刻にて物体領域抽出手段220により抽出された各物体領域の追跡特徴を比較して、物体領域を関連付けることで、物体領域の追跡を実現する。
(S4: Object tracking)
Data about the object region extracted by the object
そのために、物体追跡手段221は、監視領域への物体領域の出現が確認される度に、その物体領域の画像特徴を追跡特徴として抽出し、記憶部21の追跡特徴記憶部212に記憶する。そして、記憶部21の追跡特徴記憶部212に記憶されている前時刻で抽出された物体領域の追跡特徴と、現時刻で抽出された物体領域の追跡特徴を比較し、類似度が所定以上のものの中で最も類似していると判断される物体領域と関連付ける。追跡特徴とは、色やエッジのヒストグラム、物体領域の重心位置、外接矩形などが利用される。
For this purpose, the
現時刻で抽出された物体領域が、記憶部に記憶されている追跡特徴のいずれにも関連付けられなかった場合には、その人物像は現時刻において新たに出現した物体領域である、と判断し、この追跡特徴を追跡特徴記憶部212に記憶する。
If the object area extracted at the current time is not associated with any of the tracking features stored in the storage unit, it is determined that the person image is an object area newly appearing at the current time. The tracking feature is stored in the tracking
追跡特徴記憶部212に記憶されている追跡特徴のうちで、現時刻で抽出された物体領域に関連付けられなかったものがある場合には、その追跡情報は、入力画像の視野外に移動した、つまりは事務室から外に出た人物のものであると判断し、追跡特徴記憶部212から消去する。あるいは、一定時間は保持しておき、その間は上記の関連付け処理を試みるものとしてもよい。
If there is a tracking feature stored in the tracking
上述した物体追跡手段221における処理は、画像処理技術の分野における追跡処理として一般的なものであるので、詳細は省略する。
The above-described processing in the
(S5:人物モデル当て嵌め)
物品領域抽出手段222は、記憶部21より人物モデルを読み出し物体領域に対して当て嵌める。
(S5: Human model fitting)
The article
本実施例では、人物モデルを楕円とする。楕円の大きさや傾きは標準的人物サイズとカメラの設置条件に応じて画像座標ごとに決まる。例えば、天井面に鉛直下向きに設置された魚眼カメラでは、人物モデルは画像中心と楕円中心を結ぶ放射状に伸びる直線と重なる長軸を有する楕円である。その長軸長さL=L’+α、短軸長さS=S’+βは、L’、S’は標準的人物サイズから決定される値、α、βは個体差を吸収するための変動幅である。αとβの最大変動幅(αmax、βmax)は事前に規定する。また、人物は必ずしも直立とは限らないため、長軸の偏位角(長軸の放射方向とのずれ角)θも考慮する。同偏位角に対しても最大変動幅(φmax)を定義する。 In this embodiment, the human model is an ellipse. The size and inclination of the ellipse are determined for each image coordinate according to the standard person size and camera installation conditions. For example, in a fish-eye camera installed vertically downward on the ceiling surface, the human model is an ellipse having a long axis that overlaps with a straight line extending radially from the center of the image to the center of the ellipse. The major axis length L = L ′ + α, the minor axis length S = S ′ + β is L ′, S ′ is a value determined from a standard person size, and α, β are fluctuations for absorbing individual differences. Width. The maximum fluctuation range (αmax, βmax) of α and β is defined in advance. In addition, since a person is not always upright, a major axis deviation angle (shift angle from the major axis radial direction) θ is also considered. The maximum fluctuation range (φmax) is defined for the same deflection angle.
以上より、人物モデルのパラメータは中心座標(x、y)、長軸長さ(L)、短軸長さ(S)、長軸偏位角(θ)の6個である。 From the above, the parameters of the human model are the six parameters of the central coordinate (x, y), the major axis length (L), the minor axis length (S), and the major axis deviation angle (θ).
これらを確率的に変動させながら、物体領域と最も合致する楕円を探索する。本実施形態では物体領域への人物モデルの当て嵌まりのよさを以下の評価関数で表現する。 An ellipse that most closely matches the object region is searched while these are varied stochastically. In this embodiment, the goodness of fit of the human model to the object region is expressed by the following evaluation function.
(評価関数:E)=−{(物体領域であって人物モデル領域でない画素)
+γ×(人物モデル領域であって物体領域でない画素)}
(Evaluation function: E) = − {(pixels that are object regions but not human model regions)
+ Γ × (pixel model region but not object region)}
第1項は物体領域にも関わらず人物モデルで覆われなかった画素の数、第2項は物体領域でないにも関わらず人物モデルで覆われた画素の数であり、物体領域と人物モデルの合致度をはみ出し画素の数により評価している。評価関数は負の値をとり、その値が大きい方(0に近い方)が物体領域と人物モデルの合致度が高い。 The first term is the number of pixels that are not covered by the human model in spite of the object area, and the second term is the number of pixels that are not covered by the human model even though it is not the object area. The degree of match is evaluated by the number of protruding pixels. The evaluation function takes a negative value, and the larger the value (closer to 0), the higher the matching degree between the object region and the person model.
γは、第1項と第2項のバランスをとるためのパラメータである。例えば変化画素が抽出されやすいような差分処理の閾値を設定した場合、γの値を大きくすればよい。 γ is a parameter for balancing the first term and the second term. For example, when a threshold value for difference processing is set so that a changed pixel is easily extracted, the value of γ may be increased.
人物モデルパラメータの初期値として、例えば、
・中心座標(x、y)を物体領域の重心座標
・長軸長さ(L)を、L’に対して[−αmax,αmax]を値域とする乱数を生成しその値を加算したもの
・短軸長さ(S)を、S’に対して[−βmax,βmax]を値域とする乱数を生成しその値を加算したもの
・偏位角(θ)を、[−φmax,φmax]を値域とする乱数の値
と選択する。
As an initial value of the person model parameter, for example,
-The center coordinates (x, y) are the center of gravity coordinates of the object region-The long axis length (L) is a random number with [-αmax, αmax] in the range of L 'and the value is added. The short axis length (S) is a random number with [-βmax, βmax] in the range of [−βmax, βmax] for S ′, and the value is added. The deviation angle (θ) is [−φmax, φmax]. Select a random value for the range.
この状態から、例えば確率的探索手法を使って、以下のように楕円のパラメータを更新していく。 From this state, the parameters of the ellipse are updated as follows using, for example, a probabilistic search method.
(i)初期パラメータで楕円を描画、評価関数の値Ecurを計算する。そして、初期パラメータについての評価関数の値を評価関数の最大値に設定する。すなわち、Emax=Ecurとする。 (I) An ellipse is drawn with initial parameters, and the evaluation function value Ecur is calculated. Then, the value of the evaluation function for the initial parameter is set to the maximum value of the evaluation function. That is, Emax = Ecur.
(ii)乱数を利用して、新しいパラメータ群を生成する。
中心座標:Xnew=X+rand[−δXmax,δXmax]
Ynew=Y +rand[−δYmax,δYmax]
長軸長さ:Lnew=L+rand[−αmax,αmax]
短軸長さ:Snew=S+rand[−βmax,βmax]
偏位角 :θnew=θ+rand[−φmax,φmax]
ここで、δXmax、δYmaxは事前に規定された中心座標の変動幅である。また、rand[ ]は[ ]内の値を値域とする乱数生成を表す。
(Ii) A new parameter group is generated using random numbers.
Center coordinates: Xnew = X + rand [−δXmax, δXmax]
Ynew = Y + rand [−δYmax, δYmax]
Long axis length: Lnew = L + rand [-αmax, αmax]
Short axis length: Snew = S + rand [−βmax, βmax]
Deviation angle: θnew = θ + rand [−φmax, φmax]
Here, δXmax and δYmax are fluctuation ranges of the center coordinates defined in advance. Rand [] represents random number generation with the value in [] as the range.
(iii)新たなパラメータ群(Xnew、Ynew、Lnew、Snew、θnew)で表される楕円を描画し、評価関数の値Enewを計算する。 (Iii) An ellipse represented by a new parameter group (Xnew, Ynew, Lnew, Snew, θnew) is drawn, and an evaluation function value Enew is calculated.
(iv)評価関数の値Enewが以前の評価関数の値Ecur以上であれば(新たなパラメータ群の方が当て嵌まりがよければ)、パラメータを入れ替える。すなわち、評価関数の値をEcur = Enew、とするとともに、各パラメータX、Y、L、S、θの値を(Xnew、Ynew、Lnew、Snew、θnew)に入れ替える。 (Iv) If the value Enew of the evaluation function is equal to or greater than the value Ecur of the previous evaluation function (if the new parameter group is better fit), the parameters are switched. That is, the value of the evaluation function is set to Ecur = Enew, and the values of the parameters X, Y, L, S, and θ are replaced with (Xnew, Ynew, Lnew, Snew, θnew).
(v)そうでなければ、[0,1)の乱数を生成する。すなわち、0以上1未満の乱数を生成する。 (V) Otherwise, a random number of [0, 1) is generated. That is, a random number between 0 and 1 is generated.
(vi)(iii)で求められたEnewについて、Ecur/Enew が乱数の値よりも大きければ、パラメータを入れ替える。Ecur = Enewとする。
(vii)EcurとEmaxを比較する。ここで、Ecur<EmaxならばEcur=Emaxとする。
(Vi) For Enew obtained in (iii), if Ecur / Enew is larger than the random number, the parameters are switched. Let Ecur = Enew.
(Vii) Compare Ecur and Emax. Here, if Ecur <Emax, Ecur = Emax.
(viii)規定回数だけ上記(ii)〜(vii)を繰り返し、Emaxを与えるパラメータを最終解とする。 (Viii) The above (ii) to (vii) are repeated a prescribed number of times, and the parameter giving Emax is set as the final solution.
以上の操作により、基本的に評価値が大きくなる方向にパラメータは更新されていくが、(v)〜(vi)の操作により、確率的に評価値が小さくなる方へ移動する。これは評価関数が単調ではなく複雑な形をしているゆえ、評価関数上の局所解を飛び越えてより良い解を探索するための手立てである。 Although the parameter is basically updated in the direction in which the evaluation value increases by the above operation, the evaluation value is probabilistically decreased by the operations (v) to (vi). This is a method for searching for a better solution by skipping the local solution on the evaluation function because the evaluation function is not monotonous but has a complicated form.
また、物体領域と人物モデルの当て嵌まりのよさを表す評価関数に、時間方向の連続性を導入することもできる。例えば、前時刻の人物モデル内の色ヒストグラムを計算しておき、現時刻の人物モデル内の色ヒストグラムとの合致度を評価関数に付加することで、色がフレーム間で大きく異ならないように楕円を当て嵌めることができる。 Also, continuity in the time direction can be introduced into the evaluation function that represents the goodness of fit between the object region and the person model. For example, by calculating the color histogram in the person model at the previous time and adding the degree of coincidence with the color histogram in the person model at the current time to the evaluation function, an oval is used so that the color does not vary greatly between frames. Can be fitted.
(S6:物品領域抽出)
このようにして、S5で物体領域に対し、最も適合した人物モデルを当て嵌めた後、物品領域抽出手段222は、物体領域から人物モデルが当て嵌まった部分を除いた残りの領域を物品領域として抽出する。これは、人物モデルからはみ出した物体領域は、持ち込み物品である可能性が高いためであり、この人物モデルからはみ出した物体領域を物品領域として抽出する。なお、物体領域中に複数のはみ出した領域が存在する場合は、最大面積を有するものを選択して物品領域として抽出する。
(S6: article region extraction)
In this way, after fitting the most suitable person model to the object area in S5, the article
(S7:物品領域の有無判定)
物品領域抽出手段222は、S6にて抽出された物品領域が閾値以上の大きさを有するか否かによって、物品領域が存在するか否かを判定する。閾値(面積閾値)は、例えば当て嵌められた楕円モデルの面積の30%程度とする。すなわち、S6で抽出された物品領域のうち、面積が小さいものは物品領域から削除する。
(S7: Determination of presence / absence of article area)
The article
(S8:物品領域の特徴量登録)
S7において、物品領域が存在する場合には、物品領域抽出手段222は、監視画像中で物品領域に相当する部分の特徴量を計算し、物品領域の特徴量として記憶部21の物品特徴記憶部213に登録する。特徴量は例えば色ヒストグラム、エッジヒストグラムなどである。なお、このようにして、監視領域に生じた物品領域については、その物品特徴量が順次登録される。また、監視領域に一定期間存在しない物品特徴量については、随時削除してもよい。
このように、物品領域抽出手段222は、物品特徴記憶手段として機能し、抽出した物品特徴量を記憶部21に記憶する。
(S8: Feature amount registration of article area)
In S7, when the article region exists, the article
As described above, the article
(S9:静止物体判定)
S8における特徴量の登録が終了した場合、およびS7において物品領域が存在しないと判定された場合には、静止物体領域検出手段223は、物体追跡手段221にて追跡している物体領域の中で、静止している物体領域が存在するか否か判定する。静止状態の判断は、例えば以下の(i)〜(iii)の条件による。
(S9: stationary object determination)
When the registration of the feature amount in S8 is completed, and when it is determined in S7 that the article region does not exist, the stationary object
(i)物体領域内にフレーム間差分がない。例えば、フレーム間差分が物体領域の面積の5%以下の場合にフレーム間差分がないと判定する。 (I) There is no inter-frame difference in the object area. For example, it is determined that there is no interframe difference when the interframe difference is 5% or less of the area of the object region.
(ii)物体領域の重心座標が移動していない。例えば、移動距離が3ピクセル以下の場合に重心座標が移動していないと判定する。 (Ii) The barycentric coordinates of the object area have not moved. For example, when the movement distance is 3 pixels or less, it is determined that the barycentric coordinates are not moving.
(iii)物体領域の外接矩形を形成しこの外接矩形の大きさが変化していない。例えば矩形変化率が5%以下の場合に外接矩形の大きさに変化がないと判定する。 (Iii) A circumscribed rectangle of the object area is formed, and the size of the circumscribed rectangle is not changed. For example, when the rectangle change rate is 5% or less, it is determined that there is no change in the size of the circumscribed rectangle.
そして、この(i)〜(iii)の条件の全ての条件を、所定時間以上、例えば10フレーム以上に渡って満たしている物体領域を静止物体と判定する。もちろん、(i)〜(iii)のうちの2つの条件を所定時間以上満足することや、1つのみの条件を満足しない期間が所定時間以下で3つの条件を満足する時間が所定時間以上であるなど、各種の条件を設定可能である。 Then, an object region that satisfies all the conditions (i) to (iii) for a predetermined time or more, for example, 10 frames or more is determined as a stationary object. Of course, the two conditions (i) to (iii) are satisfied for a predetermined time or more, or the period in which only one condition is not satisfied is a predetermined time or less and the time for satisfying the three conditions is a predetermined time or more. Various conditions can be set.
(S10:物品領域と静止物体の特徴量比較)
異常判定手段224は、S9にて判定された静止物体の特徴とS8で記憶部21に記憶されている物品特徴量の比較を行う。特徴として色ヒストグラムを使用した場合、両特徴量の類似度は以下で表される。類似度をSim、完全静止物体の色ヒストグラムをl(i)、物品特徴量をh(i)として(iはヒストグラムのビンのインデックスを表す)、次式のように表せる。
(S10: Comparison of feature amount between article region and stationary object)
The
Sim = Σ MIN(l(i),h(i)) Sim = ΣMIN (l (i), h (i))
l(i),h(i)はそれぞれ既に記憶されている物品特徴量と、今回認識した静止物体についての色iについての出現頻度であり、各iについてl(i),h(i)の少ない方を選択し、それを積算することで、各色についての両者が共通する画素数の積算値が得られる。なお、ヒストグラムl(i),h(i)のビンの総和は1に正規化されているゆえ、この類似度Simは、両ヒストグラムがどれくらい重なっているかを指し示す指標であり、完全に重なった時に1(類似度最大)、全く重ならなかった場合に0(類似度最小)を返す。
なお、異常判定手段224は、S9で静止物体が判定されたときに、記憶部21に物品特徴量が記憶されていないと当該静止物体を静止人物であると判定しS14に移る。
l (i) and h (i) are the already stored item feature values and the appearance frequency for the color i of the still object recognized this time, and for each i, l (i) and h (i) By selecting the smaller one and integrating it, an integrated value of the number of pixels common to both of each color can be obtained. Since the sum of bins of histograms l (i) and h (i) is normalized to 1, this similarity Sim is an index indicating how much the two histograms overlap. Returns 1 (maximum similarity), 0 (minimum similarity) if there is no overlap.
When the stationary object is determined in S9, if the article feature quantity is not stored in the
(S11〜S15:物品と静止人物の識別)
異常判定手段224は、S10にて判定された静止物体の特徴量と記憶部21に記憶されている物品特徴量の類似度を所定の閾値と比較した結果、類似度が閾値以上であった場合には、静止物体が既に記憶されている物品特徴量を有していると判定し、持ち込まれた静止物品(持ち込み物品)であると判定する(S12)。一方、類似度が閾値以上でない場合は、静止人物である(S14)と判定する。なお、異常判定手段224における物品であるとの判定を行う部分を物品判定手段224a、静止人物であるとの判定を行う部分を静止人物領域判定手段224bとする。ここで、特徴の類似度に関する閾値は、例えば色ヒストグラムを特徴とした場合に0.75(分布の75%が重なる)とすることができる。また、S14において、静止人物と認定されたものについて、監視領域において、人物と判定されていたか、人物の特徴を有しているかなど、他の各種条件を満足するかをさらに判定するようにしてもよい。
(S11-S15: Identification of goods and stationary people)
The
静止物品と判定された場合は、その物品は以降の背景差分処理にて抽出されないことが望ましいので、該当する静止物体領域を背景画像へと取込む(S13)。 If it is determined that the article is a stationary article, it is desirable that the article is not extracted in the subsequent background difference process, and the corresponding stationary object region is taken into the background image (S13).
この判定を時間方向に蓄積することも可能である。すなわち、S11にて類似度が閾値以上である状態が所定時間以上継続したら静止物品と判定する。時間蓄積することで、例えば入力画像のノイズが原因で特徴量のマッチングが安定しない場合にも精度よく判定を下すことができる。 It is also possible to accumulate this determination in the time direction. That is, if the state where the similarity is equal to or greater than the threshold value in S11 continues for a predetermined time or more, it is determined as a stationary article. By accumulating the time, it is possible to make a determination with high accuracy even when the matching of feature amounts is not stable due to noise in the input image, for example.
(S15:異常出力)
異常判定手段224は、S14で静止人物と判定された場合、異常信号を出力部23へ出力する。
(S15: Abnormal output)
The
「本実施形態の効果」
本実施形態によれば、監視画像から抽出された物体領域に対して楕円で表される人物モデルを当て嵌め、人物モデルからはみ出した領域を「物品領域」と仮定してその特徴量を登録する。そして、静止が継続する物体領域が出現した際、既に登録されている「物品領域」の特徴量と静止する物体領域(静止物体領域)の特徴量とを比較し、一定以上の類似が得られれば「持ち込まれた物品の静止」であり「人物の静止」ではないと判定する。これによって、持ち込み物品を効果的に検出することができ、持ち込み物品を静止人物と誤判定する可能性を減少することが可能となる。
"Effect of this embodiment"
According to this embodiment, a human model represented by an ellipse is fitted to an object region extracted from a monitoring image, and the feature amount is registered assuming that the region protruding from the human model is an “article region”. . Then, when an object area that continues to be stationary appears, the feature quantity of the already registered “article area” is compared with the feature quantity of the stationary object area (stationary object area), and a certain degree of similarity can be obtained. In other words, it is determined that it is “stationary of an article brought in” and not “stationary of a person”. Accordingly, it is possible to effectively detect the brought-in article, and it is possible to reduce the possibility that the brought-in article is erroneously determined as a stationary person.
1 通報システム、2 物品検出装置(静止人物検出装置)、3 コントローラー、4 広域通信網、5 センタ装置、6 金庫、20 撮像部、21 記憶部、22 制御部、23 出力部、210 背景画像、211 人物モデル、212 追跡特徴記憶部、213 物品特徴記憶部、220 物体領域抽出手段、221 物体追跡手段、222 物品領域抽出手段、223 静止物体領域検出手段、224 異常判定手段。 DESCRIPTION OF SYMBOLS 1 Reporting system, 2 article detection apparatus (stationary person detection apparatus), 3 controller, 4 wide area network, 5 center apparatus, 6 safe, 20 imaging part, 21 memory | storage part, 22 control part, 23 output part, 210 background image, 211 human model, 212 tracking feature storage unit, 213 article feature storage unit, 220 object region extraction unit, 221 object tracking unit, 222 article region extraction unit, 223 stationary object region detection unit, 224 abnormality determination unit
Claims (3)
前記制御部は、
前記監視画像と前記背景画像から変化領域を抽出する変化領域抽出手段と、
前記監視画像から抽出した前記変化領域に前記人物モデルを重ね、当該変化領域の内側でかつ当該人物モデルの外側である物品領域の当該監視画像における特徴を前記記憶部に記憶する物品特徴記憶手段と、
前記順次取得された画像にて前記変化領域を時間的に追跡し、当該変化領域が静止しているかを判定し静止物体領域を検出する静止物体領域検出手段と、
前記静止物体領域が検出されると、当該静止物体領域が前記記憶部に記憶された物品領域の特徴を有するかを判定し、前記物品領域の特徴を有する場合に当該静止物体領域が物品であると判定する物品判定手段と、
を有することを特徴とする物品検出装置。 An image acquisition unit that sequentially acquires a monitoring image obtained by photographing the monitoring area, a background image obtained by photographing the background of the monitoring area, a storage unit that stores a person model imitating the outline of a person, and processing the monitoring image A control unit for detecting a stationary article, and an article detection device comprising:
The controller is
Change area extraction means for extracting a change area from the monitoring image and the background image;
Article feature storage means for superimposing the person model on the change area extracted from the monitoring image , and storing in the storage section a feature in the monitoring image of an article area inside the change area and outside the person model; ,
A stationary object region detecting means for temporally tracking the variation region in the sequentially acquired images, determining whether the variation region is stationary, and detecting a stationary object region;
When the stationary object area is detected, it is determined whether the stationary object area has the characteristics of the article area stored in the storage unit . If the stationary object area has the characteristics of the article area, the stationary object area is an article. Article determination means for determining
An article detection apparatus comprising:
前記物品領域の特徴は、物品領域における色別の出現頻度を示す色ヒストグラムであることを特徴とする物品検出装置。 The article detection apparatus according to claim 1.
The feature of the article region is a color histogram indicating an appearance frequency for each color in the article region.
前記制御部は、
前記検出した静止物体領域が前記物品領域の特徴を有さない場合に当該静止物体領域が静止人物領域であると判定する静止人物領域判定手段をさらに有することを特徴とする静止人物検出装置。 While having the article detection apparatus according to claim 1 or 2,
The controller is
A still person detection apparatus, further comprising: a still person area determining unit that determines that the still object area is a still person area when the detected still object area does not have the feature of the article area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011076495A JP5758165B2 (en) | 2011-03-30 | 2011-03-30 | Article detection device and stationary person detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011076495A JP5758165B2 (en) | 2011-03-30 | 2011-03-30 | Article detection device and stationary person detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012212238A JP2012212238A (en) | 2012-11-01 |
JP5758165B2 true JP5758165B2 (en) | 2015-08-05 |
Family
ID=47266148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011076495A Active JP5758165B2 (en) | 2011-03-30 | 2011-03-30 | Article detection device and stationary person detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5758165B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015136828A1 (en) | 2014-03-11 | 2015-09-17 | 三菱電機株式会社 | Person detecting device and person detecting method |
JP6652057B2 (en) | 2014-08-04 | 2020-02-19 | 日本電気株式会社 | Image processing system, image processing method, and program for detecting stagnation of moving object from image |
JP6568772B2 (en) * | 2015-11-09 | 2019-08-28 | 株式会社メガチップス | Image processing apparatus, image processing system, operation method of image processing apparatus, and control program |
KR102380255B1 (en) * | 2019-10-10 | 2022-03-28 | 주식회사 신세계아이앤씨 | System and method for monitoring shelf goods inventory based on image |
WO2022025752A1 (en) * | 2020-07-28 | 2022-02-03 | Mimos Berhad | A system and method for tracking objects in a dynamic environment from a sequence of captured images |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01245395A (en) * | 1988-03-28 | 1989-09-29 | Toshiba Corp | Image monitoring system |
JP4969291B2 (en) * | 2007-03-30 | 2012-07-04 | セコム株式会社 | Moving object tracking device |
-
2011
- 2011-03-30 JP JP2011076495A patent/JP5758165B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012212238A (en) | 2012-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11157778B2 (en) | Image analysis system, image analysis method, and storage medium | |
US11704936B2 (en) | Object tracking and best shot detection system | |
CN109166261B (en) | Image processing method, device and equipment based on image recognition and storage medium | |
US20180115749A1 (en) | Surveillance system and surveillance method | |
US11263446B2 (en) | Method for person re-identification in closed place, system, and terminal device | |
WO2018096787A1 (en) | Person's behavior monitoring device and person's behavior monitoring system | |
JP6185517B2 (en) | Image monitoring device | |
US20190213424A1 (en) | Image processing system and image processing method | |
KR101858396B1 (en) | Intelligent intrusion detection system | |
JP6233624B2 (en) | Information processing system, information processing method, and program | |
JP5758165B2 (en) | Article detection device and stationary person detection device | |
CN110633648B (en) | Face recognition method and system in natural walking state | |
TW201618539A (en) | Surveillance system and surveillance method | |
KR101454644B1 (en) | Loitering Detection Using a Pedestrian Tracker | |
JP5752977B2 (en) | Image monitoring device | |
KR102046591B1 (en) | Image Monitoring System and Method for Monitoring Image | |
JP6536643B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM | |
JP2002245560A (en) | Monitoring system | |
US10783365B2 (en) | Image processing device and image processing system | |
JP5752975B2 (en) | Image monitoring device | |
JP2012208878A (en) | Image monitoring device | |
JP2012212216A (en) | Image monitoring device | |
US20230259549A1 (en) | Extraction of feature point of object from image and image search system and method using same | |
CN114187322A (en) | Cross-camera continuous tracking method and device for same object based on different features and scenes, and electronic equipment | |
WO2012074366A2 (en) | A system and a method for detecting a loitering event |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150603 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5758165 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |