JP5758165B2 - Article detection device and stationary person detection device - Google Patents

Article detection device and stationary person detection device Download PDF

Info

Publication number
JP5758165B2
JP5758165B2 JP2011076495A JP2011076495A JP5758165B2 JP 5758165 B2 JP5758165 B2 JP 5758165B2 JP 2011076495 A JP2011076495 A JP 2011076495A JP 2011076495 A JP2011076495 A JP 2011076495A JP 5758165 B2 JP5758165 B2 JP 5758165B2
Authority
JP
Japan
Prior art keywords
article
area
person
stationary
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011076495A
Other languages
Japanese (ja)
Other versions
JP2012212238A (en
Inventor
弘 山根
弘 山根
直也 大島
直也 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011076495A priority Critical patent/JP5758165B2/en
Publication of JP2012212238A publication Critical patent/JP2012212238A/en
Application granted granted Critical
Publication of JP5758165B2 publication Critical patent/JP5758165B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、撮像した監視画像を画像解析することにより、監視空間内に存在する物体を検出する装置に関して、特に監視空間内で静止した物品および静止した人物の検出装置に関する。   The present invention relates to an apparatus for detecting an object existing in a monitoring space by performing image analysis on a captured monitoring image, and more particularly to an apparatus for detecting a stationary article and a stationary person in the monitoring space.

従来より、各種犯罪について監視カメラ映像から検出したいという要求がある。例えば、強盗犯が有人店舗などに押し入り、金庫に保管されている金品の強奪を試みる際に、店舗の従業員等による外部への通報や抵抗をおそれるあまり、従業員に対して攻撃を与えたり、手足をロープや粘着テープで拘束したりすることで身体の自由を奪うことがある。   Conventionally, there is a demand for detecting various crimes from surveillance camera images. For example, when a burglar breaks into a manned store and tries to seize money stored in a safe, he or she may attack the employee because of fear of reporting to the outside or resistance. In some cases, restraining the limbs with a rope or adhesive tape may deprive the body of freedom.

このように身体の自由を奪われた従業員等の被害者は、犯行後、店舗内に放置されることになるため、通報が遅れることによる強盗事件発生の発覚遅れや、怪我をした被害者の救護遅れなどが危惧される。   Victims such as employees who have been deprived of physical freedom in this way will be left in the store after the crime, so victims who were delayed in the detection of robbery incidents due to delayed reporting or who were injured There are concerns about delays in rescue.

このため、被害者が上記のような通報操作できない状態であることを自動的に検知し、通報を行う異常検知装置の提案が望まれている。   For this reason, the proposal of the abnormality detection apparatus which detects automatically that a victim is in the state which cannot perform the above notification operations, and reports is desired.

上記のような被害者の存在を画像処理による行動解析によって検出する場合、被害者の行動特徴はその場で静止して動かなくなるというものになる。しかしながら、人物によって持ち込まれた物品が監視領域内に放置された場合も同様の行動特徴を示してしまうため、人物と持ち込まれた物品とを区別することが難しい。   When the presence of a victim as described above is detected by behavior analysis using image processing, the behavior characteristics of the victim are such that they remain stationary and do not move. However, when an article brought in by a person is left in the monitoring area, the same behavioral characteristics are exhibited, so that it is difficult to distinguish the person from the brought-in article.

ここで、特許文献1には、「人物によって持ち込まれた物品が静止したこと」と「移動していた人物が静止したこと」を区別する手法として、人物は立ち止まっても完全に静止状態にはならないことを利用した検出装置が開示されている。   Here, as a technique for distinguishing between “the article brought in by a person is stationary” and “the person who has been moving is stationary” in Patent Document 1, even if the person stops, the person is in a completely stationary state. A detection device using what has not been disclosed is disclosed.

特許4218368号公報Japanese Patent No. 4218368

しかし、特許文献1に記載の技術により、「物品の静止」と「人物の静止」を区別することが困難な場合もある。例えば、押し込み強盗からの攻撃によって被害者が気絶してしまった場合は、人物であっても完全な静止状態になってしまうため、物品との区別は難しい。   However, there is a case where it is difficult to distinguish “stationary of an article” and “stationary of a person” by the technique described in Patent Document 1. For example, if a victim is fainted by an attack from an intrusion robbery, even a person will be in a completely stationary state, so it is difficult to distinguish it from an article.

本発明は、持ち込まれた物品を精度よく判定すること、および放置された人物との識別を実現し、放置された人物を精度よく検知することを目的とする。   An object of the present invention is to accurately determine an article that has been brought in, and to identify a left person and accurately detect a left person.

本発明は、監視領域を撮影した監視画像を順次取得する画像取得部と、監視領域の背景が撮影された背景画像と、人物の外形を模した人物モデルを記憶する記憶部と、前記監視画像を処理して静止している物品を検出する制御部と、を具備する物品検出装置であって、前記制御部は、前記監視画像と前記背景画像から変化領域を抽出する変化領域抽出手段と、前記監視画像から抽出した前記変化領域に前記人物モデルを重ね、当該変化領域の内側でかつ当該人物モデルの外側である物品領域の当該監視画像における特徴を前記記憶部に記憶する物品特徴記憶手段と、前記順次取得された画像にて前記変化領域を時間的に追跡し、当該変化領域が静止しているかを判定し静止物体領域を検出する静止物体領域検出手段と、前記静止物体領域が検出されると、当該静止物体領域が前記記憶部に記憶された物品領域の特徴を有するかを判定し、前記物品領域の特徴を有する場合に当該静止物体領域が物品であると判定する物品判定手段と、を有することを特徴とする。
The present invention provides an image acquisition unit that sequentially acquires a monitoring image obtained by photographing a monitoring region, a background image obtained by photographing the background of the monitoring region, a storage unit that stores a person model imitating the outline of a person, and the monitoring image A control unit that detects a stationary article by processing the image, and the control unit includes a change area extraction unit that extracts a change area from the monitoring image and the background image; Article feature storage means for superimposing the person model on the change area extracted from the monitoring image , and storing in the storage section a feature in the monitoring image of an article area inside the change area and outside the person model; A stationary object region detecting means for tracking the variation region in the sequentially acquired images, determining whether the variation region is stationary, and detecting a stationary object region; and detecting the stationary object region. Once, the still object region is determined whether having the characteristics of the stored goods area in the storage unit, the still object region determines the article determination means that the article if it has a characteristic of the article area It is characterized by having.

また、前記物品領域の特徴は、物品領域における色別の出現頻度を示す色ヒストグラムであることが好適である。   Moreover, it is preferable that the feature of the article region is a color histogram indicating an appearance frequency for each color in the article region.

また、本発明に係る静止人物検出装置は、上述の物品検出装置を有するとともに、前記制御部は、前記検出した静止物体領域が前記物品領域の特徴を有さない場合に当該静止物体領域が静止人物領域であると判定する静止人物領域判定手段をさらに有することを特徴とする。   In addition, a stationary person detection apparatus according to the present invention includes the above-described article detection apparatus, and the control unit determines that the stationary object area is stationary when the detected stationary object area does not have the feature of the article area. It further has a still person area determining means for determining that it is a person area.

本発明によれば、監視領域内に持ち込まれた物品を効果的に検出することができ、当該持ち込まれた物品と識別することで静止人物の検出も行える。従って、被害者が押し込み強盗などによって動けない状態にされたという異常状態と、持ち込まれた物品が静止した正常状態を区別して誤通報を防止することができる。   According to the present invention, an article brought into the monitoring area can be detected effectively, and a stationary person can also be detected by identifying the article brought in. Accordingly, it is possible to prevent an erroneous report by distinguishing between an abnormal state in which the victim is in a state where the victim cannot move due to a pushing burglary or the like and a normal state in which the brought-in article is stationary.

監視空間のイメージと物品検出装置(静止人物検出装置)の構成を示した模式図である。It is the schematic diagram which showed the structure of the image of a monitoring space, and an article | item detection apparatus (stationary person detection apparatus). 物品検出装置(静止人物検出装置)の構成を示すブロック図である。It is a block diagram which shows the structure of an article | item detection apparatus (stationary person detection apparatus). 異常検知の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of abnormality detection.

以下、本発明の実施形態について、図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

「全体構成」
本実施形態に係る物品検出装置(静止人物検出装置)を含み、この装置にて静止した持ち込み物品ではなく静止人物が存在する異常シーンを検知して、警備センタ等へ通報する通報システム1について説明する。
"overall structure"
A report system 1 that includes an article detection apparatus (stationary person detection apparatus) according to the present embodiment, detects an abnormal scene in which a stationary person is present instead of a stationary carry-in article, and notifies a security center or the like. To do.

図1は、通報システム1の構成と配置のイメージを示した模式図である。   FIG. 1 is a schematic diagram showing an image of the configuration and arrangement of the notification system 1.

通報システム1は、物品検出装置(静止人物検出装置)2と、コントローラー3と、センタ装置5を含んで構成される。   The notification system 1 includes an article detection device (stationary person detection device) 2, a controller 3, and a center device 5.

物品検出装置(静止人物検出装置)2は、金庫6などの重要物が設置された部屋を監視空間とし、当該部屋の天井に設置される。物品検出装置(静止人物検出装置)2は、監視空間にて発生した異常シーンを検知すると異常信号を出力する。   The article detection device (stationary person detection device) 2 is installed on the ceiling of a room in which a room in which an important object such as a safe 6 is installed is used as a monitoring space. The article detection device (stationary person detection device) 2 outputs an abnormal signal when detecting an abnormal scene occurring in the monitoring space.

物品検出装置(静止人物検出装置)2は、通信線を介してコントローラー3に接続され、コントローラー3は電話回線またはインターネット回線等の広域通信網4を介して遠隔地に設置された警備センタ等のセンタ装置5と接続される。物品検出装置(静止人物検出装置)2が出力した異常信号はコントローラー3を介してセンタ装置5に送信される。   The article detection device (stationary person detection device) 2 is connected to a controller 3 via a communication line, and the controller 3 is a security center or the like installed at a remote place via a wide-area communication network 4 such as a telephone line or an Internet line. Connected to the center device 5. The abnormality signal output from the article detection device (stationary person detection device) 2 is transmitted to the center device 5 via the controller 3.

「物品検出装置(静止人物検出装置)の構成」
図2は、物品検出装置(静止人物検出装置)2の構成を示したブロック図である。物品検出装置(静止人物検出装置)2は、撮像部20、記憶部21、出力部23および制御部22を含んで構成されている。
"Configuration of article detection device (stationary person detection device)"
FIG. 2 is a block diagram showing the configuration of the article detection device (stationary person detection device) 2. The article detection device (stationary person detection device) 2 includes an imaging unit 20, a storage unit 21, an output unit 23, and a control unit 22.

なお、図1においては、物品検出装置(静止人物検出装置)2を監視領域の天井に設けたが、撮像部20のみを天井に設け、その他の装置は別の場所に設けてもよい。   In FIG. 1, the article detection device (stationary person detection device) 2 is provided on the ceiling of the monitoring area, but only the imaging unit 20 may be provided on the ceiling, and other devices may be provided in another place.

(撮像部20)
撮像部20は、例えばCCD撮像素子などを利用した監視カメラである。この撮像部20は、通常は監視空間(監視領域)の天井に取り付けられている。また、その撮影は、ビデオ撮影のような連続撮影でもよいが、所定の時間間隔で監視領域を順次撮影することが好ましい。撮影された監視空間の監視画像は順次、制御部22へ出力される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称する。本実施形態において、撮像部20は魚眼レンズを備え、その光軸を鉛直下方に向けて設置されており、監視空間である部屋の全体を撮像する。
(Imaging unit 20)
The imaging unit 20 is a monitoring camera using, for example, a CCD imaging device. The imaging unit 20 is usually attached to the ceiling of the monitoring space (monitoring area). The shooting may be continuous shooting such as video shooting, but it is preferable that the monitoring area is sequentially shot at predetermined time intervals. The captured monitoring images of the monitoring space are sequentially output to the control unit 22. The time interval at which the monitoring image is captured is 1/5 second, for example. Hereinafter, the unit of time recorded at the time interval of imaging is referred to as time. In the present embodiment, the imaging unit 20 includes a fisheye lens and is installed with its optical axis directed vertically downward, and images the entire room as a monitoring space.

(記憶部21)
記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。フラッシュメモリや,ハードディスクなどを利用してもよい。記憶部21は、各種プログラムや各種データを記憶し、制御部22との間でこれらの情報を入出力する。記憶部21において記憶する各種データには、背景差分処理に必要な背景画像210、物品領域の抽出に必要な人物モデル211が含まれる。さらに、記憶部21には、物体領域の追跡に必要な物体領域の特徴を記憶する追跡特徴記憶部212、抽出した物品領域の特徴を記憶する物品特徴記憶部213も含まれる。
(Storage unit 21)
The storage unit 21 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). A flash memory or a hard disk may be used. The storage unit 21 stores various programs and various data, and inputs / outputs such information to / from the control unit 22. Various data stored in the storage unit 21 includes a background image 210 necessary for background difference processing and a person model 211 necessary for extracting an article region. Furthermore, the storage unit 21 also includes a tracking feature storage unit 212 that stores features of the object region necessary for tracking the object region, and an article feature storage unit 213 that stores the extracted feature of the article region.

(制御部22)
制御部22は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部21からプログラムを読み出して実行することで
物体領域抽出手段220、物体追跡手段221、物品領域抽出手段222、静止物体領域検出手段223、異常判定手段224として機能する。
(Control unit 22)
The control unit 22 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads out and executes a program from the storage unit 21 to extract an object region. Functions as means 220, object tracking means 221, article area extraction means 222, stationary object area detection means 223, and abnormality determination means 224.

(出力部)
出力部23は、異常信号を物品検出装置(静止人物検出装置)2の外部へ出力する通信手段である。出力部23は、制御部22の異常判定手段224から異常信号が入力されると、当該異常信号をコントローラー3へ出力する。
(Output part)
The output unit 23 is a communication unit that outputs an abnormal signal to the outside of the article detection device (stationary person detection device) 2. When an abnormality signal is input from the abnormality determination unit 224 of the control unit 22, the output unit 23 outputs the abnormality signal to the controller 3.

「物品検出装置(静止人物検出装置)2における処理フロー」
図3は、物品検出装置(静止人物検出装置)2における異常検出処理を示したフローチャートである。各種のデータ処理は基本的に制御部22において実施される。
"Processing flow in article detection device (stationary person detection device) 2"
FIG. 3 is a flowchart showing an abnormality detection process in the article detection apparatus (stationary person detection apparatus) 2. Various data processing is basically performed in the control unit 22.

(S1:初期化)
電源が投入されると、各部が初期化され動作を開始する。初期化には起動直後の監視画像を記憶部21に背景画像210として記憶させる処理を含む。ここで、背景画像については、人が立ち入らない状態において、毎回取得し直すことが好適であるが、ある程度固定的な画面を記憶しておくなど各種の手段を採用することができる。
(S1: Initialization)
When the power is turned on, each unit is initialized and starts operating. The initialization includes a process of storing the monitoring image immediately after startup in the storage unit 21 as the background image 210. Here, it is preferable to acquire the background image every time when a person does not enter, but various means such as storing a fixed screen to some extent can be employed.

(S2:監視画像取得)
初期化が終了した場合には、監視画像を取得する。すなわち、撮像部20は、監視空間を撮像する度に監視画像を出力し、制御部22はこれを取得する。S2において、現時刻の監視画像が取得され、これが制御部に送られる。
(S2: Monitor image acquisition)
When the initialization is completed, a monitoring image is acquired. That is, the imaging unit 20 outputs a monitoring image every time the monitoring space is imaged, and the control unit 22 acquires the monitoring image. In S2, a monitoring image at the current time is acquired and sent to the control unit.

(S3:背景差分・ラベリング)
制御部22では、撮像部から送られてきた現時刻における監視画像について背景を除去して、物体領域を抽出し、得られた物体領域をラベリングする。物体領域抽出手段220は、撮像部20から得られた監視画像と、記憶部21に記憶されている背景画像210を比較し、背景画像210との差分が閾値以上である画素を変化画素として抽出する。なお、差分特徴量として、輝度、色、エッジ強度・方向などを用いることができる。閾値は、事前に決められた規定値を用いてもよいし、動的に変更してもよい。
(S3: Background difference / labeling)
The control unit 22 removes the background from the monitoring image at the current time sent from the imaging unit, extracts the object region, and labels the obtained object region. The object area extraction unit 220 compares the monitoring image obtained from the imaging unit 20 with the background image 210 stored in the storage unit 21, and extracts a pixel whose difference from the background image 210 is equal to or greater than a threshold as a change pixel. To do. Note that brightness, color, edge strength / direction, and the like can be used as the difference feature amount. As the threshold value, a predetermined value determined in advance may be used, or may be changed dynamically.

また、差分演算後に正規化相関等による光・影領域の除去、膨張収縮処理によるゴマ塩状ノイズの除去を行うことが望ましい。   Further, it is desirable to remove light / shadow regions by normalized correlation after the difference calculation, and to remove sesame salt-like noise by expansion / contraction processing.

物体領域抽出手段220は、変化画素の抽出後、ラベリングを行う。ラベリングは、空間的に接続する画素に同一の番号を振る処理である。この処理により、変化画素の塊(集合)ごとに個別の番号が振られることになる。以下、この塊を物体領域と称する。なお、抽出された物体領域には、人物領域と、物品などを含む持ち込み物体領域が含まれる。   The object region extraction unit 220 performs labeling after extracting the changed pixels. Labeling is a process of assigning the same number to spatially connected pixels. With this process, individual numbers are assigned to the blocks (sets) of changed pixels. Hereinafter, this lump is referred to as an object region. Note that the extracted object area includes a person area and a brought-in object area including an article or the like.

(S4:物体追跡)
物体領域抽出手段220により抽出された物体領域についてのデータは物体追跡手段221に供給される。物体追跡手段221は、前時刻までに物体領域抽出手段220により抽出され、記憶部21の追跡特徴記憶部212に記憶されている各物体領域に関する追跡特徴と、現時刻にて物体領域抽出手段220により抽出された各物体領域の追跡特徴を比較して、物体領域を関連付けることで、物体領域の追跡を実現する。
(S4: Object tracking)
Data about the object region extracted by the object region extraction unit 220 is supplied to the object tracking unit 221. The object tracking means 221 is extracted by the object area extraction means 220 by the previous time and stored in the tracking feature storage section 212 of the storage section 21 and the object area extraction means 220 at the current time. The tracking characteristics of each object area extracted by the above are compared, and the object areas are tracked by associating the object areas.

そのために、物体追跡手段221は、監視領域への物体領域の出現が確認される度に、その物体領域の画像特徴を追跡特徴として抽出し、記憶部21の追跡特徴記憶部212に記憶する。そして、記憶部21の追跡特徴記憶部212に記憶されている前時刻で抽出された物体領域の追跡特徴と、現時刻で抽出された物体領域の追跡特徴を比較し、類似度が所定以上のものの中で最も類似していると判断される物体領域と関連付ける。追跡特徴とは、色やエッジのヒストグラム、物体領域の重心位置、外接矩形などが利用される。   For this purpose, the object tracking unit 221 extracts an image feature of the object region as a tracking feature every time when the appearance of the object region in the monitoring region is confirmed, and stores it in the tracking feature storage unit 212 of the storage unit 21. Then, the tracking feature of the object region extracted at the previous time stored in the tracking feature storage unit 212 of the storage unit 21 is compared with the tracking feature of the object region extracted at the current time. The object area determined to be the most similar among the objects is associated. As the tracking feature, a color or edge histogram, a gravity center position of an object region, a circumscribed rectangle, or the like is used.

現時刻で抽出された物体領域が、記憶部に記憶されている追跡特徴のいずれにも関連付けられなかった場合には、その人物像は現時刻において新たに出現した物体領域である、と判断し、この追跡特徴を追跡特徴記憶部212に記憶する。   If the object area extracted at the current time is not associated with any of the tracking features stored in the storage unit, it is determined that the person image is an object area newly appearing at the current time. The tracking feature is stored in the tracking feature storage unit 212.

追跡特徴記憶部212に記憶されている追跡特徴のうちで、現時刻で抽出された物体領域に関連付けられなかったものがある場合には、その追跡情報は、入力画像の視野外に移動した、つまりは事務室から外に出た人物のものであると判断し、追跡特徴記憶部212から消去する。あるいは、一定時間は保持しておき、その間は上記の関連付け処理を試みるものとしてもよい。   If there is a tracking feature stored in the tracking feature storage unit 212 that is not associated with the object region extracted at the current time, the tracking information is moved out of the field of view of the input image. That is, it is determined that it belongs to a person who has gone out of the office, and is deleted from the tracking feature storage unit 212. Or it is good also as what hold | maintains a fixed time and tries said correlation process in the meantime.

上述した物体追跡手段221における処理は、画像処理技術の分野における追跡処理として一般的なものであるので、詳細は省略する。   The above-described processing in the object tracking unit 221 is general as tracking processing in the field of image processing technology, and thus the details are omitted.

(S5:人物モデル当て嵌め)
物品領域抽出手段222は、記憶部21より人物モデルを読み出し物体領域に対して当て嵌める。
(S5: Human model fitting)
The article area extraction unit 222 reads the person model from the storage unit 21 and applies it to the object area.

本実施例では、人物モデルを楕円とする。楕円の大きさや傾きは標準的人物サイズとカメラの設置条件に応じて画像座標ごとに決まる。例えば、天井面に鉛直下向きに設置された魚眼カメラでは、人物モデルは画像中心と楕円中心を結ぶ放射状に伸びる直線と重なる長軸を有する楕円である。その長軸長さL=L’+α、短軸長さS=S’+βは、L’、S’は標準的人物サイズから決定される値、α、βは個体差を吸収するための変動幅である。αとβの最大変動幅(αmax、βmax)は事前に規定する。また、人物は必ずしも直立とは限らないため、長軸の偏位角(長軸の放射方向とのずれ角)θも考慮する。同偏位角に対しても最大変動幅(φmax)を定義する。   In this embodiment, the human model is an ellipse. The size and inclination of the ellipse are determined for each image coordinate according to the standard person size and camera installation conditions. For example, in a fish-eye camera installed vertically downward on the ceiling surface, the human model is an ellipse having a long axis that overlaps with a straight line extending radially from the center of the image to the center of the ellipse. The major axis length L = L ′ + α, the minor axis length S = S ′ + β is L ′, S ′ is a value determined from a standard person size, and α, β are fluctuations for absorbing individual differences. Width. The maximum fluctuation range (αmax, βmax) of α and β is defined in advance. In addition, since a person is not always upright, a major axis deviation angle (shift angle from the major axis radial direction) θ is also considered. The maximum fluctuation range (φmax) is defined for the same deflection angle.

以上より、人物モデルのパラメータは中心座標(x、y)、長軸長さ(L)、短軸長さ(S)、長軸偏位角(θ)の6個である。   From the above, the parameters of the human model are the six parameters of the central coordinate (x, y), the major axis length (L), the minor axis length (S), and the major axis deviation angle (θ).

これらを確率的に変動させながら、物体領域と最も合致する楕円を探索する。本実施形態では物体領域への人物モデルの当て嵌まりのよさを以下の評価関数で表現する。   An ellipse that most closely matches the object region is searched while these are varied stochastically. In this embodiment, the goodness of fit of the human model to the object region is expressed by the following evaluation function.

(評価関数:E)=−{(物体領域であって人物モデル領域でない画素)
+γ×(人物モデル領域であって物体領域でない画素)}
(Evaluation function: E) = − {(pixels that are object regions but not human model regions)
+ Γ × (pixel model region but not object region)}

第1項は物体領域にも関わらず人物モデルで覆われなかった画素の数、第2項は物体領域でないにも関わらず人物モデルで覆われた画素の数であり、物体領域と人物モデルの合致度をはみ出し画素の数により評価している。評価関数は負の値をとり、その値が大きい方(0に近い方)が物体領域と人物モデルの合致度が高い。   The first term is the number of pixels that are not covered by the human model in spite of the object area, and the second term is the number of pixels that are not covered by the human model even though it is not the object area. The degree of match is evaluated by the number of protruding pixels. The evaluation function takes a negative value, and the larger the value (closer to 0), the higher the matching degree between the object region and the person model.

γは、第1項と第2項のバランスをとるためのパラメータである。例えば変化画素が抽出されやすいような差分処理の閾値を設定した場合、γの値を大きくすればよい。   γ is a parameter for balancing the first term and the second term. For example, when a threshold value for difference processing is set so that a changed pixel is easily extracted, the value of γ may be increased.

人物モデルパラメータの初期値として、例えば、
・中心座標(x、y)を物体領域の重心座標
・長軸長さ(L)を、L’に対して[−αmax,αmax]を値域とする乱数を生成しその値を加算したもの
・短軸長さ(S)を、S’に対して[−βmax,βmax]を値域とする乱数を生成しその値を加算したもの
・偏位角(θ)を、[−φmax,φmax]を値域とする乱数の値
と選択する。
As an initial value of the person model parameter, for example,
-The center coordinates (x, y) are the center of gravity coordinates of the object region-The long axis length (L) is a random number with [-αmax, αmax] in the range of L 'and the value is added. The short axis length (S) is a random number with [-βmax, βmax] in the range of [−βmax, βmax] for S ′, and the value is added. The deviation angle (θ) is [−φmax, φmax]. Select a random value for the range.

この状態から、例えば確率的探索手法を使って、以下のように楕円のパラメータを更新していく。   From this state, the parameters of the ellipse are updated as follows using, for example, a probabilistic search method.

(i)初期パラメータで楕円を描画、評価関数の値Ecurを計算する。そして、初期パラメータについての評価関数の値を評価関数の最大値に設定する。すなわち、Emax=Ecurとする。 (I) An ellipse is drawn with initial parameters, and the evaluation function value Ecur is calculated. Then, the value of the evaluation function for the initial parameter is set to the maximum value of the evaluation function. That is, Emax = Ecur.

(ii)乱数を利用して、新しいパラメータ群を生成する。
中心座標:Xnew=X+rand[−δXmax,δXmax]
Ynew=Y +rand[−δYmax,δYmax]
長軸長さ:Lnew=L+rand[−αmax,αmax]
短軸長さ:Snew=S+rand[−βmax,βmax]
偏位角 :θnew=θ+rand[−φmax,φmax]
ここで、δXmax、δYmaxは事前に規定された中心座標の変動幅である。また、rand[ ]は[ ]内の値を値域とする乱数生成を表す。
(Ii) A new parameter group is generated using random numbers.
Center coordinates: Xnew = X + rand [−δXmax, δXmax]
Ynew = Y + rand [−δYmax, δYmax]
Long axis length: Lnew = L + rand [-αmax, αmax]
Short axis length: Snew = S + rand [−βmax, βmax]
Deviation angle: θnew = θ + rand [−φmax, φmax]
Here, δXmax and δYmax are fluctuation ranges of the center coordinates defined in advance. Rand [] represents random number generation with the value in [] as the range.

(iii)新たなパラメータ群(Xnew、Ynew、Lnew、Snew、θnew)で表される楕円を描画し、評価関数の値Enewを計算する。 (Iii) An ellipse represented by a new parameter group (Xnew, Ynew, Lnew, Snew, θnew) is drawn, and an evaluation function value Enew is calculated.

(iv)評価関数の値Enewが以前の評価関数の値Ecur以上であれば(新たなパラメータ群の方が当て嵌まりがよければ)、パラメータを入れ替える。すなわち、評価関数の値をEcur = Enew、とするとともに、各パラメータX、Y、L、S、θの値を(Xnew、Ynew、Lnew、Snew、θnew)に入れ替える。 (Iv) If the value Enew of the evaluation function is equal to or greater than the value Ecur of the previous evaluation function (if the new parameter group is better fit), the parameters are switched. That is, the value of the evaluation function is set to Ecur = Enew, and the values of the parameters X, Y, L, S, and θ are replaced with (Xnew, Ynew, Lnew, Snew, θnew).

(v)そうでなければ、[0,1)の乱数を生成する。すなわち、0以上1未満の乱数を生成する。 (V) Otherwise, a random number of [0, 1) is generated. That is, a random number between 0 and 1 is generated.

(vi)(iii)で求められたEnewについて、Ecur/Enew が乱数の値よりも大きければ、パラメータを入れ替える。Ecur = Enewとする。
(vii)EcurとEmaxを比較する。ここで、Ecur<EmaxならばEcur=Emaxとする。
(Vi) For Enew obtained in (iii), if Ecur / Enew is larger than the random number, the parameters are switched. Let Ecur = Enew.
(Vii) Compare Ecur and Emax. Here, if Ecur <Emax, Ecur = Emax.

(viii)規定回数だけ上記(ii)〜(vii)を繰り返し、Emaxを与えるパラメータを最終解とする。 (Viii) The above (ii) to (vii) are repeated a prescribed number of times, and the parameter giving Emax is set as the final solution.

以上の操作により、基本的に評価値が大きくなる方向にパラメータは更新されていくが、(v)〜(vi)の操作により、確率的に評価値が小さくなる方へ移動する。これは評価関数が単調ではなく複雑な形をしているゆえ、評価関数上の局所解を飛び越えてより良い解を探索するための手立てである。   Although the parameter is basically updated in the direction in which the evaluation value increases by the above operation, the evaluation value is probabilistically decreased by the operations (v) to (vi). This is a method for searching for a better solution by skipping the local solution on the evaluation function because the evaluation function is not monotonous but has a complicated form.

また、物体領域と人物モデルの当て嵌まりのよさを表す評価関数に、時間方向の連続性を導入することもできる。例えば、前時刻の人物モデル内の色ヒストグラムを計算しておき、現時刻の人物モデル内の色ヒストグラムとの合致度を評価関数に付加することで、色がフレーム間で大きく異ならないように楕円を当て嵌めることができる。   Also, continuity in the time direction can be introduced into the evaluation function that represents the goodness of fit between the object region and the person model. For example, by calculating the color histogram in the person model at the previous time and adding the degree of coincidence with the color histogram in the person model at the current time to the evaluation function, an oval is used so that the color does not vary greatly between frames. Can be fitted.

(S6:物品領域抽出)
このようにして、S5で物体領域に対し、最も適合した人物モデルを当て嵌めた後、物品領域抽出手段222は、物体領域から人物モデルが当て嵌まった部分を除いた残りの領域を物品領域として抽出する。これは、人物モデルからはみ出した物体領域は、持ち込み物品である可能性が高いためであり、この人物モデルからはみ出した物体領域を物品領域として抽出する。なお、物体領域中に複数のはみ出した領域が存在する場合は、最大面積を有するものを選択して物品領域として抽出する。
(S6: article region extraction)
In this way, after fitting the most suitable person model to the object area in S5, the article area extracting unit 222 sets the remaining area excluding the part where the person model is fitted from the object area as the article area. Extract. This is because the object area that protrudes from the person model is highly likely to be a carry-in article, and the object area that protrudes from the person model is extracted as an article area. If there are a plurality of protruding areas in the object area, the area having the maximum area is selected and extracted as an article area.

(S7:物品領域の有無判定)
物品領域抽出手段222は、S6にて抽出された物品領域が閾値以上の大きさを有するか否かによって、物品領域が存在するか否かを判定する。閾値(面積閾値)は、例えば当て嵌められた楕円モデルの面積の30%程度とする。すなわち、S6で抽出された物品領域のうち、面積が小さいものは物品領域から削除する。
(S7: Determination of presence / absence of article area)
The article area extraction unit 222 determines whether or not an article area exists based on whether or not the article area extracted in S6 has a size equal to or larger than a threshold value. The threshold (area threshold) is, for example, about 30% of the area of the fitted elliptic model. That is, among the article regions extracted in S6, those having a small area are deleted from the article region.

(S8:物品領域の特徴量登録)
S7において、物品領域が存在する場合には、物品領域抽出手段222は、監視画像中で物品領域に相当する部分の特徴量を計算し、物品領域の特徴量として記憶部21の物品特徴記憶部213に登録する。特徴量は例えば色ヒストグラム、エッジヒストグラムなどである。なお、このようにして、監視領域に生じた物品領域については、その物品特徴量が順次登録される。また、監視領域に一定期間存在しない物品特徴量については、随時削除してもよい。
このように、物品領域抽出手段222は、物品特徴記憶手段として機能し、抽出した物品特徴量を記憶部21に記憶する。
(S8: Feature amount registration of article area)
In S7, when the article region exists, the article region extraction unit 222 calculates the feature amount of the part corresponding to the article region in the monitoring image, and the article feature storage unit of the storage unit 21 as the feature amount of the article region. 213 is registered. The feature amount is, for example, a color histogram or an edge histogram. In this way, the article feature amount is sequentially registered for the article area generated in the monitoring area. Moreover, you may delete the item feature-value which does not exist in a monitoring area | region for a fixed period at any time.
As described above, the article region extraction unit 222 functions as an article feature storage unit, and stores the extracted article feature amount in the storage unit 21.

(S9:静止物体判定)
S8における特徴量の登録が終了した場合、およびS7において物品領域が存在しないと判定された場合には、静止物体領域検出手段223は、物体追跡手段221にて追跡している物体領域の中で、静止している物体領域が存在するか否か判定する。静止状態の判断は、例えば以下の(i)〜(iii)の条件による。
(S9: stationary object determination)
When the registration of the feature amount in S8 is completed, and when it is determined in S7 that the article region does not exist, the stationary object region detection unit 223 includes the object region tracked by the object tracking unit 221. It is determined whether there is a stationary object region. The determination of the stationary state is based on, for example, the following conditions (i) to (iii).

(i)物体領域内にフレーム間差分がない。例えば、フレーム間差分が物体領域の面積の5%以下の場合にフレーム間差分がないと判定する。 (I) There is no inter-frame difference in the object area. For example, it is determined that there is no interframe difference when the interframe difference is 5% or less of the area of the object region.

(ii)物体領域の重心座標が移動していない。例えば、移動距離が3ピクセル以下の場合に重心座標が移動していないと判定する。 (Ii) The barycentric coordinates of the object area have not moved. For example, when the movement distance is 3 pixels or less, it is determined that the barycentric coordinates are not moving.

(iii)物体領域の外接矩形を形成しこの外接矩形の大きさが変化していない。例えば矩形変化率が5%以下の場合に外接矩形の大きさに変化がないと判定する。 (Iii) A circumscribed rectangle of the object area is formed, and the size of the circumscribed rectangle is not changed. For example, when the rectangle change rate is 5% or less, it is determined that there is no change in the size of the circumscribed rectangle.

そして、この(i)〜(iii)の条件の全ての条件を、所定時間以上、例えば10フレーム以上に渡って満たしている物体領域を静止物体と判定する。もちろん、(i)〜(iii)のうちの2つの条件を所定時間以上満足することや、1つのみの条件を満足しない期間が所定時間以下で3つの条件を満足する時間が所定時間以上であるなど、各種の条件を設定可能である。   Then, an object region that satisfies all the conditions (i) to (iii) for a predetermined time or more, for example, 10 frames or more is determined as a stationary object. Of course, the two conditions (i) to (iii) are satisfied for a predetermined time or more, or the period in which only one condition is not satisfied is a predetermined time or less and the time for satisfying the three conditions is a predetermined time or more. Various conditions can be set.

(S10:物品領域と静止物体の特徴量比較)
異常判定手段224は、S9にて判定された静止物体の特徴とS8で記憶部21に記憶されている物品特徴量の比較を行う。特徴として色ヒストグラムを使用した場合、両特徴量の類似度は以下で表される。類似度をSim、完全静止物体の色ヒストグラムをl(i)、物品特徴量をh(i)として(iはヒストグラムのビンのインデックスを表す)、次式のように表せる。
(S10: Comparison of feature amount between article region and stationary object)
The abnormality determination unit 224 compares the feature of the stationary object determined in S9 with the article feature amount stored in the storage unit 21 in S8. When a color histogram is used as a feature, the similarity between both feature amounts is expressed as follows. Assuming that the similarity is Sim, the color histogram of a completely stationary object is l (i), and the article feature is h (i) (i represents the index of the bin of the histogram), it can be expressed as

Sim = Σ MIN(l(i),h(i))     Sim = ΣMIN (l (i), h (i))

l(i),h(i)はそれぞれ既に記憶されている物品特徴量と、今回認識した静止物体についての色iについての出現頻度であり、各iについてl(i),h(i)の少ない方を選択し、それを積算することで、各色についての両者が共通する画素数の積算値が得られる。なお、ヒストグラムl(i),h(i)のビンの総和は1に正規化されているゆえ、この類似度Simは、両ヒストグラムがどれくらい重なっているかを指し示す指標であり、完全に重なった時に1(類似度最大)、全く重ならなかった場合に0(類似度最小)を返す。
なお、異常判定手段224は、S9で静止物体が判定されたときに、記憶部21に物品特徴量が記憶されていないと当該静止物体を静止人物であると判定しS14に移る。
l (i) and h (i) are the already stored item feature values and the appearance frequency for the color i of the still object recognized this time, and for each i, l (i) and h (i) By selecting the smaller one and integrating it, an integrated value of the number of pixels common to both of each color can be obtained. Since the sum of bins of histograms l (i) and h (i) is normalized to 1, this similarity Sim is an index indicating how much the two histograms overlap. Returns 1 (maximum similarity), 0 (minimum similarity) if there is no overlap.
When the stationary object is determined in S9, if the article feature quantity is not stored in the storage unit 21, the abnormality determining unit 224 determines that the stationary object is a stationary person, and proceeds to S14.

(S11〜S15:物品と静止人物の識別)
異常判定手段224は、S10にて判定された静止物体の特徴量と記憶部21に記憶されている物品特徴量の類似度を所定の閾値と比較した結果、類似度が閾値以上であった場合には、静止物体が既に記憶されている物品特徴量を有していると判定し、持ち込まれた静止物品(持ち込み物品)であると判定する(S12)。一方、類似度が閾値以上でない場合は、静止人物である(S14)と判定する。なお、異常判定手段224における物品であるとの判定を行う部分を物品判定手段224a、静止人物であるとの判定を行う部分を静止人物領域判定手段224bとする。ここで、特徴の類似度に関する閾値は、例えば色ヒストグラムを特徴とした場合に0.75(分布の75%が重なる)とすることができる。また、S14において、静止人物と認定されたものについて、監視領域において、人物と判定されていたか、人物の特徴を有しているかなど、他の各種条件を満足するかをさらに判定するようにしてもよい。
(S11-S15: Identification of goods and stationary people)
The abnormality determination unit 224 compares the similarity between the feature quantity of the stationary object determined in S10 and the article feature quantity stored in the storage unit 21 with a predetermined threshold, and the similarity is equal to or greater than the threshold. Is determined that the stationary object has an already stored article feature amount, and is determined to be a stationary article (carry-in article) brought in (S12). On the other hand, if the similarity is not greater than or equal to the threshold, it is determined that the person is a stationary person (S14). Note that a part of the abnormality determination unit 224 that determines an article is an article determination unit 224a, and a part of the abnormality determination unit 224 that determines that it is a stationary person is a stationary person region determination unit 224b. Here, the threshold value regarding the similarity of features can be set to 0.75 (75% of the distribution overlaps) when the feature is a color histogram, for example. Further, in S14, it is further determined whether or not a person who has been recognized as a stationary person satisfies other various conditions such as whether it is determined to be a person in the monitoring area or has characteristics of the person. Also good.

静止物品と判定された場合は、その物品は以降の背景差分処理にて抽出されないことが望ましいので、該当する静止物体領域を背景画像へと取込む(S13)。   If it is determined that the article is a stationary article, it is desirable that the article is not extracted in the subsequent background difference process, and the corresponding stationary object region is taken into the background image (S13).

この判定を時間方向に蓄積することも可能である。すなわち、S11にて類似度が閾値以上である状態が所定時間以上継続したら静止物品と判定する。時間蓄積することで、例えば入力画像のノイズが原因で特徴量のマッチングが安定しない場合にも精度よく判定を下すことができる。   It is also possible to accumulate this determination in the time direction. That is, if the state where the similarity is equal to or greater than the threshold value in S11 continues for a predetermined time or more, it is determined as a stationary article. By accumulating the time, it is possible to make a determination with high accuracy even when the matching of feature amounts is not stable due to noise in the input image, for example.

(S15:異常出力)
異常判定手段224は、S14で静止人物と判定された場合、異常信号を出力部23へ出力する。
(S15: Abnormal output)
The abnormality determination unit 224 outputs an abnormality signal to the output unit 23 when it is determined that the person is a stationary person in S14.

「本実施形態の効果」
本実施形態によれば、監視画像から抽出された物体領域に対して楕円で表される人物モデルを当て嵌め、人物モデルからはみ出した領域を「物品領域」と仮定してその特徴量を登録する。そして、静止が継続する物体領域が出現した際、既に登録されている「物品領域」の特徴量と静止する物体領域(静止物体領域)の特徴量とを比較し、一定以上の類似が得られれば「持ち込まれた物品の静止」であり「人物の静止」ではないと判定する。これによって、持ち込み物品を効果的に検出することができ、持ち込み物品を静止人物と誤判定する可能性を減少することが可能となる。
"Effect of this embodiment"
According to this embodiment, a human model represented by an ellipse is fitted to an object region extracted from a monitoring image, and the feature amount is registered assuming that the region protruding from the human model is an “article region”. . Then, when an object area that continues to be stationary appears, the feature quantity of the already registered “article area” is compared with the feature quantity of the stationary object area (stationary object area), and a certain degree of similarity can be obtained. In other words, it is determined that it is “stationary of an article brought in” and not “stationary of a person”. Accordingly, it is possible to effectively detect the brought-in article, and it is possible to reduce the possibility that the brought-in article is erroneously determined as a stationary person.

1 通報システム、2 物品検出装置(静止人物検出装置)、3 コントローラー、4 広域通信網、5 センタ装置、6 金庫、20 撮像部、21 記憶部、22 制御部、23 出力部、210 背景画像、211 人物モデル、212 追跡特徴記憶部、213 物品特徴記憶部、220 物体領域抽出手段、221 物体追跡手段、222 物品領域抽出手段、223 静止物体領域検出手段、224 異常判定手段。   DESCRIPTION OF SYMBOLS 1 Reporting system, 2 article detection apparatus (stationary person detection apparatus), 3 controller, 4 wide area network, 5 center apparatus, 6 safe, 20 imaging part, 21 memory | storage part, 22 control part, 23 output part, 210 background image, 211 human model, 212 tracking feature storage unit, 213 article feature storage unit, 220 object region extraction unit, 221 object tracking unit, 222 article region extraction unit, 223 stationary object region detection unit, 224 abnormality determination unit

Claims (3)

監視領域を撮影した監視画像を順次取得する画像取得部と、監視領域の背景が撮影された背景画像と、人物の外形を模した人物モデルを記憶する記憶部と、前記監視画像を処理して静止している物品を検出する制御部と、を具備する物品検出装置であって、
前記制御部は、
前記監視画像と前記背景画像から変化領域を抽出する変化領域抽出手段と、
前記監視画像から抽出した前記変化領域に前記人物モデルを重ね、当該変化領域の内側でかつ当該人物モデルの外側である物品領域の当該監視画像における特徴を前記記憶部に記憶する物品特徴記憶手段と、
前記順次取得された画像にて前記変化領域を時間的に追跡し、当該変化領域が静止しているかを判定し静止物体領域を検出する静止物体領域検出手段と、
前記静止物体領域が検出されると、当該静止物体領域が前記記憶部に記憶された物品領域の特徴を有するかを判定し、前記物品領域の特徴を有する場合に当該静止物体領域が物品であると判定する物品判定手段と、
を有することを特徴とする物品検出装置。
An image acquisition unit that sequentially acquires a monitoring image obtained by photographing the monitoring area, a background image obtained by photographing the background of the monitoring area, a storage unit that stores a person model imitating the outline of a person, and processing the monitoring image A control unit for detecting a stationary article, and an article detection device comprising:
The controller is
Change area extraction means for extracting a change area from the monitoring image and the background image;
Article feature storage means for superimposing the person model on the change area extracted from the monitoring image , and storing in the storage section a feature in the monitoring image of an article area inside the change area and outside the person model; ,
A stationary object region detecting means for temporally tracking the variation region in the sequentially acquired images, determining whether the variation region is stationary, and detecting a stationary object region;
When the stationary object area is detected, it is determined whether the stationary object area has the characteristics of the article area stored in the storage unit . If the stationary object area has the characteristics of the article area, the stationary object area is an article. Article determination means for determining
An article detection apparatus comprising:
請求項1に記載の物品検出装置において、
前記物品領域の特徴は、物品領域における色別の出現頻度を示す色ヒストグラムであることを特徴とする物品検出装置。
The article detection apparatus according to claim 1.
The feature of the article region is a color histogram indicating an appearance frequency for each color in the article region.
請求項1または2に記載の物品検出装置を有するとともに、
前記制御部は、
前記検出した静止物体領域が前記物品領域の特徴を有さない場合に当該静止物体領域が静止人物領域であると判定する静止人物領域判定手段をさらに有することを特徴とする静止人物検出装置。
While having the article detection apparatus according to claim 1 or 2,
The controller is
A still person detection apparatus, further comprising: a still person area determining unit that determines that the still object area is a still person area when the detected still object area does not have the feature of the article area.
JP2011076495A 2011-03-30 2011-03-30 Article detection device and stationary person detection device Active JP5758165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011076495A JP5758165B2 (en) 2011-03-30 2011-03-30 Article detection device and stationary person detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011076495A JP5758165B2 (en) 2011-03-30 2011-03-30 Article detection device and stationary person detection device

Publications (2)

Publication Number Publication Date
JP2012212238A JP2012212238A (en) 2012-11-01
JP5758165B2 true JP5758165B2 (en) 2015-08-05

Family

ID=47266148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011076495A Active JP5758165B2 (en) 2011-03-30 2011-03-30 Article detection device and stationary person detection device

Country Status (1)

Country Link
JP (1) JP5758165B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015136828A1 (en) 2014-03-11 2015-09-17 三菱電機株式会社 Person detecting device and person detecting method
JP6652057B2 (en) 2014-08-04 2020-02-19 日本電気株式会社 Image processing system, image processing method, and program for detecting stagnation of moving object from image
JP6568772B2 (en) * 2015-11-09 2019-08-28 株式会社メガチップス Image processing apparatus, image processing system, operation method of image processing apparatus, and control program
KR102380255B1 (en) * 2019-10-10 2022-03-28 주식회사 신세계아이앤씨 System and method for monitoring shelf goods inventory based on image
WO2022025752A1 (en) * 2020-07-28 2022-02-03 Mimos Berhad A system and method for tracking objects in a dynamic environment from a sequence of captured images

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245395A (en) * 1988-03-28 1989-09-29 Toshiba Corp Image monitoring system
JP4969291B2 (en) * 2007-03-30 2012-07-04 セコム株式会社 Moving object tracking device

Also Published As

Publication number Publication date
JP2012212238A (en) 2012-11-01

Similar Documents

Publication Publication Date Title
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
US11704936B2 (en) Object tracking and best shot detection system
CN109166261B (en) Image processing method, device and equipment based on image recognition and storage medium
US20180115749A1 (en) Surveillance system and surveillance method
US11263446B2 (en) Method for person re-identification in closed place, system, and terminal device
WO2018096787A1 (en) Person&#39;s behavior monitoring device and person&#39;s behavior monitoring system
JP6185517B2 (en) Image monitoring device
US20190213424A1 (en) Image processing system and image processing method
KR101858396B1 (en) Intelligent intrusion detection system
JP6233624B2 (en) Information processing system, information processing method, and program
JP5758165B2 (en) Article detection device and stationary person detection device
CN110633648B (en) Face recognition method and system in natural walking state
TW201618539A (en) Surveillance system and surveillance method
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
JP5752977B2 (en) Image monitoring device
KR102046591B1 (en) Image Monitoring System and Method for Monitoring Image
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
JP2002245560A (en) Monitoring system
US10783365B2 (en) Image processing device and image processing system
JP5752975B2 (en) Image monitoring device
JP2012208878A (en) Image monitoring device
JP2012212216A (en) Image monitoring device
US20230259549A1 (en) Extraction of feature point of object from image and image search system and method using same
CN114187322A (en) Cross-camera continuous tracking method and device for same object based on different features and scenes, and electronic equipment
WO2012074366A2 (en) A system and a method for detecting a loitering event

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150603

R150 Certificate of patent or registration of utility model

Ref document number: 5758165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250