JP2011248513A - Busyness detection system and busyness detection program - Google Patents

Busyness detection system and busyness detection program Download PDF

Info

Publication number
JP2011248513A
JP2011248513A JP2010119393A JP2010119393A JP2011248513A JP 2011248513 A JP2011248513 A JP 2011248513A JP 2010119393 A JP2010119393 A JP 2010119393A JP 2010119393 A JP2010119393 A JP 2010119393A JP 2011248513 A JP2011248513 A JP 2011248513A
Authority
JP
Japan
Prior art keywords
area
data
busy
busyness
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010119393A
Other languages
Japanese (ja)
Other versions
JP5599228B2 (en
Inventor
Kazutoshi Furukawa
和年 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2010119393A priority Critical patent/JP5599228B2/en
Publication of JP2011248513A publication Critical patent/JP2011248513A/en
Application granted granted Critical
Publication of JP5599228B2 publication Critical patent/JP5599228B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology useful for business management and the like which digitizes and detects changes such as a movement or a standstill of an object in a filming range area by using a moving image filmed by a fixed camera.SOLUTION: A busyness detection system 10 comprises: a learning data creation unit 12 for creating learning data 51 including a pixel value histogram of each area in a frame based on the moving image (a plurality of frames) of filming range 45 filmed by a monitoring camera 30; a detection target data creating unit 13 for creating detection target data 52 including the pixel value histogram of each area in the frame; a distance calculation unit 14 for calculating a distance value for each area comparing the learning data 51 and the detection target data 52; and a busyness information calculating unit 15 for calculating a degree of busyness which shows a level of busyness by the movement of the object in the filming range area based on the distance value of each area, and detecting busy spots based on the degree of busyness.

Description

本発明は、監視カメラ等の固定カメラにおいて撮影された動画像を利用してデータ情報処理等を行う技術に関し、特に、店舗等において撮影された動画像の領域中の物体の移動や静止などの変動から繁忙箇所などを検知するシステム及びプログラムに適用して有効な技術に関する。   The present invention relates to a technique for performing data information processing using a moving image captured by a fixed camera such as a surveillance camera, and in particular, such as movement or stillness of an object in an area of a moving image captured in a store or the like. The present invention relates to a technology that is effective when applied to a system and program for detecting busy points from fluctuations.

現在では、例えばコンビニエンスストア店舗などの様々な施設において、防犯目的などの様々な目的のために、監視カメラや監視カメラシステム(以下では単に「監視カメラ」と記載する場合がある)が設置されている。監視カメラは高機能・高性能化し続けており、様々な機能を有するものが市場に提供されている。   Currently, surveillance cameras and surveillance camera systems (hereinafter sometimes referred to simply as “surveillance cameras”) have been installed for various purposes such as crime prevention in various facilities such as convenience store stores. Yes. Surveillance cameras continue to be highly functional and high performance, and cameras having various functions are provided to the market.

監視カメラの機能としては、施設内外の画像(動画像)の撮影と記録という基本的な機能に加えて、付加的な機能としては、撮影した動画像に対する画像解析処理等に基づいて、動体を検出する機能、および検出した動体の特徴に基づいて人物や顔などの特定の対象物を検出する機能などがある。   As a function of the surveillance camera, in addition to the basic function of shooting and recording images inside and outside the facility (moving images), as an additional function, a moving object is selected based on image analysis processing on the captured moving images. There are a function to detect and a function to detect a specific object such as a person or a face based on the detected feature of the moving object.

特開2010−15465号公報(特許文献1)は、監視カメラの画像データを利用して、店舗等への入場者の数を計測するシステムについて記載されている。   Japanese Patent Laying-Open No. 2010-15465 (Patent Document 1) describes a system that measures the number of visitors to a store or the like using image data of a surveillance camera.

特開2007−74330号公報(特許文献2)は、監視カメラの撮影映像を解析すること(人物の滞在時間の判別など)により、例えば購買意欲を持った顧客かどうか、不審者かどうか等を認識する技術について記載されている。   Japanese Patent Laid-Open No. 2007-74330 (Patent Document 2) analyzes whether or not a customer has a willingness to purchase, whether or not a suspicious person, etc. It describes the technology to recognize.

特開2006−197226号公報(特許文献3)は、防犯目的に限らず店舗管理にも利用できる監視カメラシステムについて記載されている。固定式カメラと移動式カメラを用いること等が記載されている。   Japanese Patent Laying-Open No. 2006-197226 (Patent Document 3) describes a surveillance camera system that can be used not only for crime prevention purposes but also for store management. The use of a fixed camera and a movable camera is described.

特開2010−15465号公報JP 2010-15465 A 特開2007−74330号公報JP 2007-74330 A 特開2006−197226号公報JP 2006-197226 A

従来の監視カメラシステムは、防犯目的で設置・利用されることが多く、防犯目的では店舗内の人物を概略的に把握することができ有効である。防犯目的以外の目的として、コンビニエンスストア店舗等の施設における経営管理等の目的で利用することが考えられるが(例えば特許文献1〜3)、活用が不十分であった。   Conventional surveillance camera systems are often installed and used for crime prevention purposes. For security purposes, it is possible to roughly grasp a person in a store and is effective. As a purpose other than the crime prevention purpose, it may be used for the purpose of business management or the like in a facility such as a convenience store store (for example, Patent Documents 1 to 3), but the utilization is insufficient.

例えば従来の監視カメラシステムでは、撮影範囲の領域における人物等の移動や静止等の変動を数値化・検出して経営管理に役立てるといった可能性については十分に検討・実現がされていない。例えば、撮影範囲に対応した背景領域(例えば店舗内の商品等の配置構成)における物体の変動による繁忙箇所などを検知するようなシステムは実現されていない。   For example, in a conventional surveillance camera system, the possibility of quantifying and detecting changes in movement or stillness of a person or the like in an imaging range area to be useful for business management has not been sufficiently studied and realized. For example, a system that detects a busy spot or the like due to a change in an object in a background area (for example, an arrangement configuration of products in a store) corresponding to a shooting range has not been realized.

また従来の監視カメラシステムに備える画像解析等の機能を高度化することにより、例えば領域内における人物の動線を高精度に検出して経営管理に役立てることが考えられるが、必要とする時間やコストが大きくなってしまう不利点がある。   In addition, by enhancing the functions such as image analysis provided in conventional surveillance camera systems, for example, it is conceivable to detect the flow lines of people in the area with high accuracy and use it for business management. There is a disadvantage that the cost increases.

以上を鑑み、本発明の目的は、監視カメラなどの固定カメラにおいて撮影された動画像を用いて、撮影範囲の領域における人物等の物体の移動や静止等の変動を数値化・検出して経営管理等に役立てることができるシステム等を提供することにある。特に、必要とする時間やコストを小さく、撮影範囲に対応した背景領域における繁忙箇所などを検知することができる技術を提供することである。本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。   In view of the above, an object of the present invention is to manage a moving image captured by a fixed camera such as a surveillance camera by quantifying and detecting movement or stationary variation of an object such as a person in a shooting range area. It is to provide a system that can be used for management and the like. In particular, it is to provide a technique that can detect a busy place in a background area corresponding to an imaging range with reduced time and cost. The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

前記目的を達成するために、本発明の代表的な実施の形態は、以下の特徴を有するものである。本繁忙検知システムは、所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、前記撮影範囲の領域における物体の変動による繁忙を検知するシステムであり、前記固定カメラで撮影した動画像または静止画に基づき、連続した複数の各々の静止画のフレームを取得し、各フレームを複数のエリアに分割する処理を行うフレーム処理部と、前記撮影範囲に対応した、基準とする第1の複数フレームをもとに、当該フレームの各エリアの各画素の情報を含む第1のデータを作成する処理を行う第1のデータ作成部と、前記撮影範囲に対応した、検知対象とする各々のフレームをもとに、当該フレームの各エリアの各画素の情報を含む第2のデータを作成する処理を行う第2のデータ作成部と、前記第1のデータの各エリアの画素の情報に対して前記第2のデータの各エリアの画素の情報を比較し、エリア毎に、当該第1、第2のデータ間における類似度を示す距離値を計算する距離計算部と、前記第2のデータについて、前記エリア毎の距離値に基づいて、前記エリア毎に、前記撮影範囲の領域における物体の変動による繁忙の度合いを示す繁忙度を計算し、前記エリア毎の繁忙度をもとに前記撮影範囲の領域における繁忙箇所を検出する繁忙情報計算部と、を有する。 また、本発明は、コンピュータを上記のようなシステムとして機能させるプログラムにも適用することができる。   To achieve the above object, a typical embodiment of the present invention has the following characteristics. This busy detection system is a system that is built in or connected to a fixed camera system including a fixed camera that captures a predetermined shooting range, and that detects busyness due to changes in objects in the shooting range area. Based on a moving image or a still image, a frame processing unit that acquires a plurality of continuous still image frames and divides each frame into a plurality of areas, and a reference first corresponding to the shooting range Based on a plurality of frames, a first data creation unit that performs processing for creating first data including information of each pixel in each area of the frame, and a detection target corresponding to the imaging range Based on each frame, a second data creation unit that performs processing for creating second data including information on each pixel in each area of the frame, and the first data Distance calculation that compares pixel information of each area of the second data with pixel information of each area and calculates a distance value indicating the similarity between the first and second data for each area And the second data, based on the distance value for each area, for each area, calculating a busyness indicating the degree of busyness due to object fluctuations in the area of the shooting range, and for each area A busy information calculation unit that detects a busy point in the imaging range based on the busyness. The present invention can also be applied to a program that causes a computer to function as the system as described above.

本発明の代表的な実施の形態によれば、監視カメラなどの固定カメラにおいて撮影された動画像を用いて、撮影範囲の領域における人物等の物体の移動や静止等の変動を数値化・検出して経営管理等に役立てることができるシステム等を提供できる。特に、必要とする時間やコストを小さく、撮影範囲に対応した背景領域における繁忙箇所などを検知することができる。   According to a typical embodiment of the present invention, a moving image captured by a fixed camera such as a surveillance camera is used to quantify and detect fluctuations in movement and stillness of an object such as a person in an imaging range area. It is possible to provide a system that can be used for business management. In particular, it is possible to detect a busy place in the background area corresponding to the photographing range with a small required time and cost.

本発明の一実施の形態である繁忙検知システムを含む監視カメラシステムの構成例について概要を示した図である。It is the figure which showed the outline | summary about the structural example of the surveillance camera system containing the busy detection system which is one embodiment of this invention. 本発明の一実施の形態における繁忙検知処理の流れの例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the flow of the busy detection process in one embodiment of this invention. 本発明の一実施の形態における、学習データ用フレームにおける複数エリアへの分割の処理例を示した図である。It is the figure which showed the example of a process of the division | segmentation into the several area in the frame for learning data in one embodiment of this invention. 本発明の一実施の形態における、学習データと検知対象データとの間での対象エリアの画素値ヒストグラムの比較による距離値等の計算の処理例を示した図である。It is the figure which showed the processing example of calculation of distance value etc. by the comparison of the pixel value histogram of the target area between learning data and detection target data in one embodiment of this invention. 本発明の一実施の形態における、検知対象データにおける繁忙度の計算及び繁忙箇所の検出の処理例を示した図である。It is a figure showing an example of processing of calculation of busyness in detection object data, and detection of a busy part in one embodiment of the present invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。本実施の形態の繁忙検知システムを含む監視カメラシステムでは、監視カメラで撮影した動画像の複数フレーム(学習データと検知対象データ)における、撮影範囲の領域から、物体の移動や静止等の変動による繁忙の度合いや箇所を数値化して検出する。繁忙とは、当該複数フレームのエリア及び時間帯に対して、人物などが、移動や静止などにより変動している状態を示し、本システムでは、その繁忙を検知対象とする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the surveillance camera system including the busy detection system according to the present embodiment, due to fluctuations in movement and stillness of an object from the imaging range area in a plurality of frames (learning data and detection target data) of a moving image taken by the surveillance camera. Detects the degree and location of busyness by quantifying them. Busy refers to a state in which a person or the like fluctuates due to movement or stationary with respect to the areas and time zones of the plurality of frames, and the busyness is detected in this system.

[システム構成]
図1において、本発明の一実施の形態である繁忙検知システム10を含む監視カメラシステム(固定カメラシステム)100の構成例について概要を示す。本監視カメラシステム100は、繁忙検知システム10、監視カメラサーバ20、監視カメラ(固定カメラ)30、及び店舗40などから構成される。
[System configuration]
FIG. 1 shows an outline of a configuration example of a monitoring camera system (fixed camera system) 100 including a busy detection system 10 according to an embodiment of the present invention. The surveillance camera system 100 includes a busy detection system 10, a surveillance camera server 20, a surveillance camera (fixed camera) 30, a store 40, and the like.

店舗40には、1つ以上の監視カメラ30が設置される。監視カメラ30は所定の撮影範囲45を撮影する。各監視カメラ30は、監視カメラサーバ20に接続される。監視カメラサーバ20は、店舗40内部に構成されるか、ネットワーク等を介して店舗40外部に構成されてもよい。監視カメラサーバ20に対し、繁忙検知システム10が接続される。繁忙検知システム10は、店舗40内のシステムとして構成されてもよいし、外部ネットワーク上のシステムとして構成されてもよい。   One or more surveillance cameras 30 are installed in the store 40. The surveillance camera 30 captures a predetermined imaging range 45. Each surveillance camera 30 is connected to the surveillance camera server 20. The monitoring camera server 20 may be configured inside the store 40 or may be configured outside the store 40 via a network or the like. The busy detection system 10 is connected to the monitoring camera server 20. The busy detection system 10 may be configured as a system in the store 40 or may be configured as a system on an external network.

店舗40は、例えばコンビニエンスストア店舗などである。監視カメラ30の撮影範囲45は、例えば店舗40内の通路や商品陳列棚などの所定の固定的な空間領域を対象とする。本実施の形態では、撮影範囲45は、店舗40内の商品陳列棚を含むものである(図3、300)。監視カメラ30による撮影範囲45を対象として撮影される動画像は、動画像データ23として監視カメラサーバ20内に記録される。   The store 40 is, for example, a convenience store store. The imaging range 45 of the monitoring camera 30 is for a predetermined fixed space area such as a passage in the store 40 or a product display shelf. In the present embodiment, the photographing range 45 includes a commodity display shelf in the store 40 (FIGS. 3 and 300). A moving image shot for the shooting range 45 by the monitoring camera 30 is recorded in the monitoring camera server 20 as moving image data 23.

監視カメラサーバ20は、例えば、コンピュータシステムによって構成され、ソフトウェアプログラムによって実装される監視カメラ制御部21および画像解析部22の各部と、動画像データ23および解析情報24の各データもしくはデータベースを有する。   The monitoring camera server 20 includes, for example, a computer system and each unit of the monitoring camera control unit 21 and the image analysis unit 22 implemented by a software program, and each data or database of the moving image data 23 and the analysis information 24.

これにより、監視カメラサーバ20は、監視カメラ30によって撮影された動画像を動画像データ23として記録する機能と、記録した動画像データをもとに、画像解析部22による画像解析処理を行うことにより、例えば動画像内における移動する人物などを検出することができる公知の機能などを有する。画像解析部22による解析情報24は監視カメラサーバ20内に記録される。また画像解析部22等の処理内容は設定情報25に基づいて可変に設定できる。なお、本実施の形態では、監視カメラサーバ20による動体検出機能や人物検出機能などの具備は必須ではない。   Accordingly, the monitoring camera server 20 performs a function of recording a moving image taken by the monitoring camera 30 as moving image data 23 and an image analysis process by the image analysis unit 22 based on the recorded moving image data. Thus, for example, it has a known function that can detect a moving person in a moving image. Analysis information 24 by the image analysis unit 22 is recorded in the monitoring camera server 20. The processing contents of the image analysis unit 22 and the like can be variably set based on the setting information 25. In the present embodiment, it is not essential that the surveillance camera server 20 has a moving object detection function, a person detection function, or the like.

監視カメラサーバ20は、監視カメラ制御部21により監視カメラ30を制御する。この制御としては、例えば、監視カメラ30による撮影の実行・停止、撮影範囲45の設定や変更、露出等の撮影条件の変更などが含まれ得る。特に監視カメラ30の向き等を変えることにより、所望の撮影範囲45を設定することが可能である。   The monitoring camera server 20 controls the monitoring camera 30 by the monitoring camera control unit 21. This control may include, for example, execution / stop of shooting by the monitoring camera 30, setting or changing the shooting range 45, changing shooting conditions such as exposure, and the like. In particular, it is possible to set a desired shooting range 45 by changing the orientation of the monitoring camera 30 or the like.

繁忙検知システム10は、例えば、コンピュータシステムによって構成され、ソフトウェアプログラムによって実装されるフレーム処理部11、学習データ作成部12、検知対象データ作成部13、距離計算部14、及び繁忙情報計算部15の各部と、フレームデータ50、学習データ51、検知対象データ52、及び繁忙情報53の各データもしくはデータベースを有する。これにより、監視カメラ30及び監視カメラサーバ20による撮影動画像から撮影範囲45における繁忙情報53を計算・検出する機能を有する。   The busy detection system 10 is configured by, for example, a computer system, and is implemented by a frame processing unit 11, a learning data creation unit 12, a detection target data creation unit 13, a distance calculation unit 14, and a busy information calculation unit 15 implemented by a software program. Each unit includes each data or database of frame data 50, learning data 51, detection target data 52, and busy information 53. Accordingly, the busy information 53 in the photographing range 45 is calculated and detected from the moving images taken by the surveillance camera 30 and the surveillance camera server 20.

また繁忙検知システム10は、図示しないが、店舗管理者等の操作により各種情報を設定するための設定手段を備え、処理対象のフレームや時間、判定用の閾値などを設定することが可能である。   Although not shown, the busy detection system 10 includes setting means for setting various information by operations of a store manager or the like, and can set a processing target frame, time, determination threshold, and the like. .

フレーム処理部11は、監視カメラサーバ20の動画像データ23を入力し、当該動画像から、連続的な複数の各々の静止画(フレーム)をフレームデータ50として作成し、保存する。またフレーム処理部11では、後述するエリア分割処理を行ってもよい。   The frame processing unit 11 receives the moving image data 23 of the surveillance camera server 20, creates a plurality of continuous still images (frames) from the moving image as frame data 50, and stores them. The frame processing unit 11 may perform area division processing described later.

学習データ作成部12は、フレームデータ50をもとに、学習データ(基準データ)51を作成する処理を行う。学習データ(基準データ)51は、検知対象データ52との比較元となるフレーム等のデータであり、撮影範囲45における例えば人物などがいない状態(変動が少ない状態)での静的な背景領域などを対象として撮影・サンプリング・学習した内容によるデータである。   The learning data creation unit 12 performs processing for creating learning data (reference data) 51 based on the frame data 50. The learning data (reference data) 51 is data such as a frame that is a comparison source with the detection target data 52, and a static background region in a state where there is no person (a state with little fluctuation) in the photographing range 45, for example. This is data based on the contents of shooting, sampling, and learning.

検知対象データ作成部13は、フレームデータ50をもとに、検知対象データ52を作成する処理を行う。検知対象データ52は、繁忙情報53を検知する対象とする任意の時間のフレーム等のデータである。   The detection target data creation unit 13 performs processing for creating the detection target data 52 based on the frame data 50. The detection target data 52 is data such as a frame at an arbitrary time as a target for detecting the busy information 53.

距離計算部14及び繁忙情報計算部15は、学習データ51と検知対象データ52とを用いた比較等により、繁忙情報53を計算・検出する処理を行う。各部の詳しい処理内容は後述される(図2等)。   The distance calculation unit 14 and the busy information calculation unit 15 perform processing for calculating and detecting the busy information 53 by comparison using the learning data 51 and the detection target data 52 or the like. Detailed processing contents of each part will be described later (FIG. 2 and the like).

繁忙情報53は、繁忙検知システム10の処理により結果として得られる情報である。繁忙情報53は、監視カメラ30の撮影範囲45の領域における検出された繁忙箇所の情報を含む。繁忙情報53は、例えばコンピュータ端末の画面で表示して確認することができる形式とするとよい。これにより例えば店舗40の管理者等は、撮影範囲45のうちどの箇所が繁忙状態であるか等を判断することができる。例えば撮影範囲45に対応付けられる商品陳列棚の特定の商品の箇所で繁忙状態であること等がわかり、商品の仕入れ等、経営管理に役立てることができる。   The busy information 53 is information obtained as a result of the processing of the busy detection system 10. The busy information 53 includes information on the detected busy points in the area of the shooting range 45 of the monitoring camera 30. The busy information 53 may be in a format that can be displayed and confirmed on a screen of a computer terminal, for example. Thereby, for example, the manager of the store 40 can determine which part of the imaging range 45 is busy. For example, it can be known that a specific product portion on the product display shelf associated with the shooting range 45 is busy, and can be used for business management such as purchase of products.

なお、本実施の形態では、繁忙検知システム10を監視カメラサーバ20とは独立した機器・システムとして実装する場合の例を示しているが、繁忙検知システム10の各部を構成するプログラムやデータを監視カメラサーバ20内に組み込んで、監視カメラサーバ20と一体として実装するようにしてもよい。   In the present embodiment, an example in which the busy detection system 10 is implemented as a device / system independent of the monitoring camera server 20 is shown. However, the programs and data constituting each part of the busy detection system 10 are monitored. It may be incorporated in the camera server 20 so as to be integrated with the monitoring camera server 20.

[処理内容]
図2は、本システム(10,100)において、監視カメラ30の撮影画像をもとに繁忙箇所等を計算・検知する際の処理の流れの例について概要を示す。例えば店舗管理者等によるコンピュータ端末画面での操作に基づいて、繁忙検知システム10に対し、(A)学習データ作成処理(S10,S20)と、(B)繁忙検知処理(S10,S30〜S50)とを、それぞれ指示して実行する。なお既に(A)の処理が済んでいて学習データ51がある場合、(A)の処理の実行は省略可能である。
[Processing content]
FIG. 2 shows an outline of an example of a flow of processing when calculating and detecting a busy place or the like based on a captured image of the monitoring camera 30 in this system (10, 100). For example, based on an operation on a computer terminal screen by a store manager or the like, the busy detection system 10 is subjected to (A) learning data creation processing (S10, S20) and (B) busy detection processing (S10, S30 to S50). Are instructed and executed. If the process (A) has already been completed and the learning data 51 exists, the execution of the process (A) can be omitted.

(1) 繁忙検知システム10のフレーム処理部11は、監視カメラサーバ20から監視カメラ30で撮影された撮影範囲45に対応した動画像データ23を入力・取得し、この動画像(例えばMPEG等の差分方式のデータ)を、連続的な複数の個別のフレーム(静止画)に分割するフレーム処理(S10)を行う。これによる複数フレームはフレームデータ50として保持される。各フレームデータは、画素ごとに階調値(色)などのデータ情報を含む。   (1) The frame processing unit 11 of the busy detection system 10 inputs and acquires the moving image data 23 corresponding to the shooting range 45 shot by the monitoring camera 30 from the monitoring camera server 20, and this moving image (for example, MPEG or the like) A frame process (S10) is performed to divide the difference data) into a plurality of continuous individual frames (still images). A plurality of frames are held as frame data 50. Each frame data includes data information such as a gradation value (color) for each pixel.

図3のフレーム300は、所定の撮影範囲45に対応したフレーム例を示し、背景領域310として商品陳列棚やその通路を含む場合である。なおわかりやすいように、商品陳列棚を正面から見た場合のフレームを図示しているが、監視カメラ30の位置や向き等に応じて、例えば通路の斜め上からのフレーム等になる。   A frame 300 in FIG. 3 shows an example of a frame corresponding to a predetermined shooting range 45, and includes a product display shelf and its passage as the background area 310. For ease of understanding, a frame when the product display shelf is viewed from the front is illustrated, but depending on the position and orientation of the monitoring camera 30, for example, the frame is obliquely above the passage.

(2) 学習データ作成部12は、フレームデータ50を用いて、監視カメラ30による撮影範囲45(検知対象の撮影範囲45と同じ)を対象として、学習データ51を作成する処理(S20)を行う。この処理(S20)は詳しくは以下(S21,S22)である。   (2) The learning data creation unit 12 uses the frame data 50 to perform processing (S20) for creating the learning data 51 for the shooting range 45 (same as the detection range 45 of the detection target) by the monitoring camera 30. . This process (S20) is described in detail below (S21, S22).

(S21) 学習データ作成部12(またはフレーム処理部11)により、学習データ51の取得対象とする複数の静止画の各フレーム領域を、縦・横にそれぞれ複数に分割することにより複数のエリア(分割エリア)Rを構成する。以降の処理でこのエリアR単位を用いる。   (S21) The learning data creation unit 12 (or the frame processing unit 11) divides each frame region of a plurality of still images to be acquired from the learning data 51 into a plurality of areas (vertical and horizontal), respectively. (Divided area) R is formed. This area R unit is used in the subsequent processing.

図3で、学習データ51の取得用のフレーム(300,301)における複数のエリアRへの分割例を示す。フレーム301において、縦×横で4×6に分割して、24個の矩形のエリアR{R1-1〜R4-6}へ分割した例である。   FIG. 3 shows an example of division into a plurality of areas R in the frames (300, 301) for acquiring the learning data 51. In this example, the frame 301 is divided into 4 × 6 in length × width and divided into 24 rectangular areas R {R1-1 to R4-6}.

エリアRへの分割の仕方は、設定等に応じて可変である。例えば、エリアRの大きさや分割数を調整することで、繁忙情報53の検知感度を変えることができる。また例えば撮影範囲45における店舗40内の商品配置等の構成に対応付けてエリア分割を設定するようにしてもよい。   The method of division into the area R is variable according to the setting or the like. For example, the detection sensitivity of the busy information 53 can be changed by adjusting the size of the area R and the number of divisions. Further, for example, area division may be set in association with a configuration such as product arrangement in the store 40 in the shooting range 45.

(S22) 次に学習データ作成部12は、学習データ51用の複数のフレーム301を以降の処理対象とする。ここで、学習データ51用とする複数フレームの決め方としては、変動が少ない連続複数フレーム(変動が大きい箇所を含まない連続複数フレーム)を設定する。簡単には、人物などがいない状態(変動が少ない状態)での静的な背景領域310を撮影範囲45として撮影・サンプリング等すればよい。   (S22) Next, the learning data creation unit 12 sets a plurality of frames 301 for the learning data 51 as subsequent processing targets. Here, as a method of determining a plurality of frames used for the learning data 51, a continuous plurality of frames with a small variation (a continuous plurality of frames not including a portion with a large variation) is set. In simple terms, the static background region 310 in a state in which there is no person (a state in which fluctuations are small) may be imaged / sampled as the imaging range 45.

なお、学習データ作成部12での自動的な処理により、適度な撮影画像(フレームデータ50)をもとに、変動が大きい箇所(エリアR、フレーム等)を除く処理を行って、学習データ51用の複数フレームを構成してもよい。例えば、フレームデータ50をもとに、フレーム間(時間軸)での画素値の変化などがある程度以上に大きいエリアRについては不適なものとして除く処理などを行ってもよい。また例えば、ヒストグラムの色(階調値)データそれぞれについて、平均、標準偏差などの統計値を取得し、明らかに突出して大きすぎる変化の部分を除外し、別の動画像を撮影し直すようにしてもよい。なお比較可能とするために最低限フレーム内の全エリアRの情報を持つ学習データ51を作成する。   It should be noted that the learning data 51 is subjected to a process of excluding a portion (area R, frame, etc.) with large fluctuations based on an appropriate photographed image (frame data 50) by automatic processing in the learning data creation unit 12. A plurality of frames may be configured. For example, based on the frame data 50, an area R in which a change in pixel value between frames (time axis) is larger than a certain level may be removed as inappropriate. Also, for example, for each color (gradation value) data of the histogram, statistical values such as average and standard deviation are acquired, and a part that clearly protrudes and changes too much is excluded, and another moving image is recaptured. May be. In order to make the comparison possible, learning data 51 having information on all areas R in the frame is created.

次に、学習データ作成部12は、学習データ51用の複数(m)のフレーム301について、エリアR毎に、学習データ51となる画素値ヒストグラムデータを作成する。本実施の形態では、学習データ51とは、エリアR毎の画素値のヒストグラム(HA)における、複数(m)フレームにわたる平均値を計算したものとする。上記サンプリングするフレームの数(m)は、動画像データ23のフレームレート等によっても異なるが、例えば100〜200程度とする。   Next, the learning data creation unit 12 creates pixel value histogram data to be the learning data 51 for each area R for a plurality (m) of frames 301 for the learning data 51. In the present embodiment, it is assumed that the learning data 51 is an average value over a plurality of (m) frames in a histogram (HA) of pixel values for each area R. The number (m) of frames to be sampled varies depending on the frame rate of the moving image data 23, but is about 100 to 200, for example.

図4、左側(A)で、学習データ51の取得用フレーム301における1つの対象エリアR例における画素値ヒストグラムHAの例(401)を示す。画素値ヒストグラムHA(401)において、横軸は画素値(階調値など)、縦軸は頻度値である。   In FIG. 4, the left side (A) shows an example (401) of the pixel value histogram HA in one target area R example in the acquisition frame 301 of the learning data 51. In the pixel value histogram HA (401), the horizontal axis represents pixel values (gradation values, etc.), and the vertical axis represents frequency values.

(3) 検知対象データ作成部13は、フレームデータ50を用いて、監視カメラ30による撮影範囲45を対象として、検知対象データ52を作成する処理を行う(S30)。この処理(S30)は詳しくは以下(S31,S32)である。作成のタイミングとしては、学習データ51の作成の以降において、例えば店舗管理者等により撮影の開始・終了等を指定して、任意数(n)のフレームを検知対象として撮影・サンプリング等する。   (3) The detection target data creation unit 13 performs a process of creating the detection target data 52 using the frame data 50 for the shooting range 45 by the monitoring camera 30 (S30). This process (S30) is described in detail below (S31, S32). As the timing of creation, after the creation of the learning data 51, for example, a store manager or the like designates start / end of photographing, and photographing / sampling is performed with an arbitrary number (n) of frames as detection targets.

(S31) 検知対象データ作成部13(またはフレーム処理部11)により、対象フレームを、S21と同様に複数のエリアRに分割する。そして、各フレームの各エリアR(全エリア)を、以降の処理対象のエリアRとする。   (S31) The detection target data creation unit 13 (or the frame processing unit 11) divides the target frame into a plurality of areas R as in S21. Then, each area R (all areas) of each frame is set as an area R to be processed later.

(S32) 次に検知対象データ作成部13は、複数(n)のフレーム(検知対象フレーム)の各々について、エリアR毎に、検知対象データ52となる画素値ヒストグラムデータを作成する。本実施の形態では、検知対象データ52とは、フレーム毎に、エリアR毎の画素値のヒストグラム(HB)を計算したものとする。   (S32) Next, the detection target data creation unit 13 creates pixel value histogram data to be the detection target data 52 for each area R for each of a plurality of (n) frames (detection target frames). In the present embodiment, the detection target data 52 is obtained by calculating a histogram (HB) of pixel values for each area R for each frame.

図4、右側(B)で、検知対象データ52の取得用フレーム302における1つの対象エリアR例における画素値ヒストグラムHBの例(402)を示す。   An example (402) of the pixel value histogram HB in one target area R example in the acquisition frame 302 of the detection target data 52 is shown on the right side (B) of FIG.

変形例として、ヒストグラム(HA,HB)として、全階調(色)のデータを用いるのではなく、一部の階調(色)のデータを対象として設定してもよい。   As a modified example, instead of using all gradation (color) data as the histogram (HA, HB), a part of gradation (color) data may be set as a target.

(4) 距離計算部14は、S20の学習データ51(HA)と、S30の検知対象データ52(HB)とを入力として用いて、検知対象データ52の各フレームについて、学習データ51との比較により、距離値L、及び第1の指標値Mなどを計算する処理(S40)を行う。この処理(S40)は詳しくは以下(S41,S42)である。   (4) The distance calculation unit 14 uses the learning data 51 (HA) in S20 and the detection target data 52 (HB) in S30 as inputs, and compares each frame of the detection target data 52 with the learning data 51. Thus, the process of calculating the distance value L, the first index value M, and the like (S40). This process (S40) is described in detail below (S41, S42).

距離値Lは、エリアRの画像(動画像)における検知対象データ52を学習データ51と対比したときの類似度を示す値であり、本実施の形態では、画素値ヒストグラム(HA,HB)の比較により計算する。   The distance value L is a value indicating the degree of similarity when the detection target data 52 in the image of the area R (moving image) is compared with the learning data 51. In the present embodiment, the distance value L is a pixel value histogram (HA, HB). Calculate by comparison.

第1の指標値Mは、エリアRの画像(動画像)における検知対象データ52を学習データ51(背景領域310など)と対比したときの、物体の移動や静止等の変動の度合いを指標化した値であり、2値または多値などの方式で指標化する。   The first index value M is an index indicating the degree of variation such as movement and stillness of the object when the detection target data 52 in the image (moving image) of the area R is compared with the learning data 51 (background region 310, etc.). And is indexed by a binary or multi-valued method.

(S41) 距離計算部14は、学習データ51(HA)と検知対象データ52(HB)とを比較し、距離値Lを計算する。距離値Lの計算の仕方は、各ヒストグラム(HA,HB)のデータにおいて、例えば階調値毎に頻度値の差分をとり、その差分値の大きさの総量や平均値などから距離値Lを決める。   (S41) The distance calculation unit 14 compares the learning data 51 (HA) and the detection target data 52 (HB), and calculates the distance value L. The distance value L is calculated by taking a difference of frequency values for each gradation value in the data of each histogram (HA, HB) and calculating the distance value L from the total amount or average value of the difference values. Decide.

図4で、S41での距離値Lの計算例として、本実施の形態では、各ヒストグラム(HA,HB)の比較において、両者間で、階調値(横軸)毎に両者の頻度値の差分を算出し、それらの差分値を全階調において累積し、その累積値を当該ヒストグラムHA,HB間の距離値Lとする。このLが小さいほど類似度が高いことになる。   In FIG. 4, as an example of calculating the distance value L in S41, in the present embodiment, in comparison of the histograms (HA, HB), the frequency values of the two are obtained for each gradation value (horizontal axis) between the two. The difference is calculated, the difference values are accumulated in all gradations, and the accumulated value is set as a distance value L between the histograms HA and HB. The smaller L is, the higher the similarity is.

(S42) 距離処理部14は、S41の距離値Lから、第1の指標値Mを計算する。本実施の形態では、2値の方式を用い、S41の距離値Lを所定の閾値Ltと比較することにより、2値の指標値M(M=0または1)を得る。距離値Lが閾値Lt以上の大きさがある場合(L≧Lt)、M=1(概略的に変動有りを示す)とし、LがLt未満の場合(L<Lt)、M=0(概略的に変動無しを示す)とする。   (S42) The distance processing unit 14 calculates the first index value M from the distance value L in S41. In the present embodiment, a binary index value M (M = 0 or 1) is obtained by using a binary method and comparing the distance value L in S41 with a predetermined threshold value Lt. When the distance value L is greater than or equal to the threshold value Lt (L ≧ Lt), M = 1 (generally indicates variation), and when L is less than Lt (L <Lt), M = 0 (approximately Indicates no fluctuation).

また、多値の方式を用いる場合は、距離値Lを所定の関数等の計算により多値の値M(例えば0≦M≦1)に変換する。また距離値Lをそのまま変換無しで第1の指標値Mにし、以後の処理で使用してもよい。   In the case of using a multi-value method, the distance value L is converted into a multi-value value M (for example, 0 ≦ M ≦ 1) by calculating a predetermined function or the like. Further, the distance value L may be used as it is in the subsequent processing by making the first index value M without conversion.

前記学習データ51(HA)として平均・標準偏差などの値をとる場合は以下のような処理例とする。ヒストグラムHAにおいて、[平均値(a)]±[標準偏差(σ)]×[特定の倍数(b)]の範囲を比較元にする。この比較元の範囲に対して、検知対象のヒストグラムHBが収まるかどうか(その程度など)によって、距離値Lや指標値Mを判定(決定)する。即ち、学習データ51では画素の変化量の散らばりを考慮する。上記範囲を管理者等により設定可能とする。例えば、a±σ、a±2σ、などの範囲とする。上記判定例としては、上記範囲に収まるヒストグラムHBの率を計算し、上記範囲に収まっていないヒストグラムの率が所定の閾値例えば70%を超える場合はM=1、70%以下の場合はM=0、といったように判定する。上記閾値(70%)も管理者等により設定可能である。   When the learning data 51 (HA) takes a value such as an average / standard deviation, the following processing example is used. In the histogram HA, a range of [average value (a)] ± [standard deviation (σ)] × [specific multiple (b)] is used as a comparison source. The distance value L and the index value M are determined (determined) depending on whether or not the histogram HB to be detected is within the comparison source range (such as the extent). That is, the learning data 51 considers the variation in the amount of change in pixels. The above range can be set by an administrator or the like. For example, the range is a ± σ, a ± 2σ, or the like. As an example of the determination, the rate of the histogram HB that falls within the range is calculated. When the rate of the histogram that does not fall within the range exceeds a predetermined threshold, for example, 70%, M = 1, and when the rate is 70% or less, M = It is determined as 0. The threshold value (70%) can also be set by an administrator or the like.

S40の処理の結果のデータ情報として、検知対象データ52について、エリアR毎に、(L,M)の情報を持つ。   As the data information as a result of the processing of S40, the detection target data 52 has information (L, M) for each area R.

距離値Lが大きい場合(例えばM=1)、当該エリアRの元の画像と検知対象の画像とが類似していないことを示し、例えば背景領域310の画像上で人物などが動いていたり静止したりしていると推定できる。例えば、商品陳列棚の商品の前を人物などが移動(通過)している場合や静止している場合、商品を手に取っている場合、などが考えられる。   When the distance value L is large (for example, M = 1), it indicates that the original image of the area R and the image to be detected are not similar, and for example, a person or the like is moving or stationary on the image of the background region 310. Can be estimated. For example, there may be a case where a person or the like is moving (passing) in front of a product on the product display shelf, a case where the person is stationary, a case where a product is being picked up, and the like.

本システム10では、S40の処理では、固定的な監視カメラ30の撮影範囲45の画像の場合、特に2値の方式を用いて、閾値Ltを比較的高く設定することで、物体の変動の有無(M=0または1)の判断が容易になる効果がある。   In the present system 10, in the process of S40, in the case of an image in the shooting range 45 of the fixed monitoring camera 30, particularly by using a binary method, the threshold Lt is set to be relatively high, so that the presence or absence of an object change There is an effect that the determination of (M = 0 or 1) is facilitated.

(5) 繁忙情報計算部15は、S40の距離計算部14による計算結果のデータ情報(L,M)を用いて、検知対象データ52(複数(n)の各フレーム)について、繁忙情報53を計算する処理(S50)を行う。この処理(S50)は詳しくは以下(S51,S52)である。繁忙情報53として、本実施の形態では、繁忙度P、繁忙箇所(繁忙エリアR)を計算する。   (5) The busy information calculation unit 15 uses the data information (L, M) of the calculation result obtained by the distance calculation unit 14 in S40 to obtain the busy information 53 for the detection target data 52 (each frame of plural (n)). A calculation process (S50) is performed. This process (S50) is described in detail below (S51, S52). As the busy information 53, in this embodiment, the busy degree P and the busy part (the busy area R) are calculated.

繁忙度Pは、撮影範囲45の動画像における物体による移動や静止等の変動に関する第1の指標値Mをもとに、エリアR単位及び時間帯T単位で、繁忙度合いを指標化した値である。時間帯Tは、検知対象とする複数(n)のフレームにおいて、所定の区切りの複数フレーム単位などである。繁忙箇所(繁忙エリアR)は、エリアR及び時間帯Tにおける繁忙度Pの情報に基づいて、繁忙箇所をエリアR単位で検出した情報である。   The busyness P is a value obtained by indexing the degree of busyness in the area R unit and the time zone T unit based on the first index value M relating to the movement or stillness of the moving image in the shooting range 45 due to the object. is there. The time zone T is a unit of a plurality of frames with predetermined divisions in a plurality (n) of frames to be detected. The busy spot (busy area R) is information obtained by detecting a busy spot in units of area R based on information on the busy degree P in the area R and the time zone T.

(S51) 繁忙情報計算部15は、検知対象データ52について、エリアR毎及び時間帯T毎に、第1の指標値Mが大きい(距離値Lが大きい)ものに関して、統計値をとることにより、繁忙度Pを計算する処理を行う。繁忙度Pの計算の仕方として、例えば、エリアR及び時間帯Tの単位(R×T)において、第1の指標値Mに関する統計値として、時間帯T(複数フレーム)における、M=1のエリアRの出現の頻度(0〜1の範囲の多値)などを計算する。そして、その統計値を、繁忙度P(0〜1の範囲の多値)とする。   (S51) For the detection target data 52, the busy information calculation unit 15 obtains a statistical value for each of the areas R and the time zone T where the first index value M is large (the distance value L is large). Then, the busy degree P is calculated. As a method of calculating the busyness P, for example, in a unit (R × T) of the area R and the time zone T, as a statistical value regarding the first index value M, M = 1 in the time zone T (multiple frames) The frequency of appearance of the area R (multivalue in the range of 0 to 1) and the like are calculated. Then, the statistical value is defined as busyness P (multiple values in the range of 0 to 1).

図5で、検知対象データ52のフレーム500(複数(n)のフレーム、時間帯Tに対応する)において、エリアR毎に、前記第1の指標値Mの結果(M=0または1)に応じた区分の例を示す。501は、あるフレーム500でM=1となった処理対象のエリアR({R2-3,R2-4,R2-6,R3-3})の例である。R0はM=0のエリアR、R1はM=1のエリアRとする。S51では、エリアR×時間帯Tの単位で、第1の指標値Mに関する統計値(R1出現頻度など)をとることにより、繁忙度Pを計算する。例えば、M=1のエリアR1が頻繁に出現する場合(即ちPが大きい場合)、当該エリアR×時間帯Tでは、人物などが頻繁に移動や静止等をしていると推定できる。   In FIG. 5, in the frame 500 of the detection target data 52 (corresponding to a plurality (n) frames, corresponding to the time zone T), the result of the first index value M (M = 0 or 1) is obtained for each area R. An example of the corresponding category is shown. Reference numeral 501 denotes an example of the processing target area R ({R2-3, R2-4, R2-6, R3-3}) in which M = 1 in a certain frame 500. R0 is an area R with M = 0, and R1 is an area R with M = 1. In S51, the busyness P is calculated by taking a statistical value (R1 appearance frequency, etc.) regarding the first index value M in the unit of area R × time zone T. For example, when an area R1 with M = 1 frequently appears (that is, when P is large), it can be estimated that a person or the like frequently moves or stops in the area R × time zone T.

(S52) 繁忙情報計算部15は、上記S51の統計値(繁忙度P)をもとに、繁忙箇所(エリアR毎かつ時間帯T毎)を検出する。例えばあるエリアR×時間帯Tの繁忙度P(0〜1)が、所定の閾値Ptと比較して大きい場合(P≧Pt)、当該箇所を繁忙箇所(繁忙エリアR)として検出する。例えば検出した繁忙エリアR及び時間帯Tなどの情報を、繁忙情報53の中に記述して出力・格納する。   (S52) The busy information calculation unit 15 detects a busy point (for each area R and for each time zone T) based on the statistical value (busy degree P) in S51. For example, when the busyness P (0 to 1) of a certain area R × time period T is larger than the predetermined threshold value Pt (P ≧ Pt), the location is detected as a busy location (busy area R). For example, information such as the detected busy area R and time zone T is described in the busy information 53 and output / stored.

図5で、510は、検知結果の繁忙情報53の例として、繁忙箇所(繁忙エリアR)の例を示す。図3の背景領域310の例における、特定の繁忙エリアR{R2-4,R3-3}が検出された場合である。これにより、店舗管理者等は、撮影範囲45のうち特定の箇所が繁忙状態であることがわかる。撮影範囲45(背景領域310)の設定に応じて、繁忙箇所は、通路や棚や商品などに対応付けられたものとなる。   In FIG. 5, 510 indicates an example of a busy location (busy area R) as an example of the busy information 53 of the detection result. This is a case where a specific busy area R {R2-4, R3-3} in the example of the background region 310 of FIG. 3 is detected. As a result, the store manager or the like knows that a specific part of the shooting range 45 is busy. Depending on the setting of the shooting range 45 (background area 310), the busy part is associated with a passage, a shelf, a product, or the like.

本システム10では、S50の処理では、監視カメラ30(撮影範囲45)における解像度(画素)が粗い場合であっても、繁忙箇所を効率的に検出することができる効果がある。   In the present system 10, the process of S <b> 50 has an effect that a busy spot can be efficiently detected even when the resolution (pixels) in the monitoring camera 30 (the shooting range 45) is rough.

[効果等]
以上説明したように、本実施の形態によれば、監視カメラ30で撮影した動画像を用いて、撮影範囲45の領域における人物等の物体の移動や静止等の変動を、繁忙度P等として数値化し、経営管理等に役立てることができる。特に、必要とする時間やコストを小さく、撮影範囲45に対応した背景領域310等における繁忙箇所などを検知することができる。例えば、店舗40内の商品等の配置構成に対応付けられた形で、繁忙エリアRを検出することができる。よって、例えば繁忙の理由が、当該商品の購入や興味などによるものであると推定することができ、店舗経営に役立てることができる。繁忙情報53を店舗40の経営管理に利用できる。例えば、店舗経営ノウハウとして利用できる。あるいはPOSシステムによる商品在庫・販売データ等と照らし合わせて活用してもよい。
[Effects]
As described above, according to the present embodiment, by using a moving image captured by the monitoring camera 30, the movement or stationary variation of an object such as a person in the region of the imaging range 45 is defined as the busyness P or the like. It can be digitized and used for business management. In particular, it is possible to detect a busy place in the background area 310 or the like corresponding to the imaging range 45 with less time and cost required. For example, the busy area R can be detected in a form associated with the arrangement configuration of products or the like in the store 40. Therefore, for example, it can be estimated that the reason for busyness is due to the purchase or interest of the product, which can be used for store management. The busy information 53 can be used for business management of the store 40. For example, it can be used as store management know-how. Alternatively, it may be used in comparison with product inventory / sales data by the POS system.

なお、本実施の形態のシステムは、特定の人物の検出を行ったり、人物の動線の高精度な計算などを行うものではなく、エリアR及び時間帯Tの単位で何らかの物体の変動による繁忙を効率的に検知することができるものであり、低負荷の処理、低コストで実現できる。   Note that the system according to the present embodiment does not detect a specific person or calculate a person's flow line with high accuracy, but is busy due to a change in an object in an area R or time zone T unit. Can be detected efficiently, and can be realized with low load processing and low cost.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

本発明は、監視カメラ等の固定カメラにおいて撮影された動画像を利用してデータ情報処理等を行う監視カメラシステム、特に、店舗の経営管理等の目的での固定カメラシステム等に利用できる。   INDUSTRIAL APPLICABILITY The present invention can be used for a surveillance camera system that performs data information processing using a moving image photographed by a stationary camera such as a surveillance camera, and particularly for a stationary camera system for the purpose of store management and the like.

10…繁忙検知システム、11…フレーム処理部、12…学習データ作成部、13…検知対象データ作成部、14…距離計算部、15…繁忙情報計算部、
20…監視カメラサーバ、21…監視カメラ制御部、22…画像解析部、23…動画像データ、24…解析情報、25…設定情報、
30…監視カメラ、
40…店舗、45…撮影範囲、
50…フレームデータ、51…学習データ、52…検知対象データ、53…繁忙情報。
DESCRIPTION OF SYMBOLS 10 ... Busy detection system, 11 ... Frame processing part, 12 ... Learning data creation part, 13 ... Detection object data creation part, 14 ... Distance calculation part, 15 ... Busy information calculation part,
20 ... surveillance camera server, 21 ... surveillance camera control unit, 22 ... image analysis unit, 23 ... moving image data, 24 ... analysis information, 25 ... setting information,
30 ... surveillance camera,
40 ... store, 45 ... shooting range,
50: Frame data, 51: Learning data, 52: Detection target data, 53: Busy information.

Claims (8)

所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、前記撮影範囲の領域における物体の変動による繁忙を検知するシステムであり、
前記固定カメラで撮影した動画像または静止画に基づき、連続した複数の各々の静止画のフレームを取得し、各フレームを複数のエリアに分割する処理を行うフレーム処理部と、
前記撮影範囲に対応した、基準とする第1の複数フレームをもとに、当該フレームの各エリアの各画素の情報を含む第1のデータを作成する処理を行う第1のデータ作成部と、
前記撮影範囲に対応した、検知対象とする各々のフレームをもとに、当該フレームの各エリアの各画素の情報を含む第2のデータを作成する処理を行う第2のデータ作成部と、
前記第1のデータの各エリアの画素の情報に対して前記第2のデータの各エリアの画素の情報を比較し、エリア毎に、当該第1、第2のデータ間における類似度を示す距離値を計算する距離計算部と、
前記第2のデータについて、前記エリア毎の距離値に基づいて、前記エリア毎に、前記撮影範囲の領域における物体の変動による繁忙の度合いを示す繁忙度を計算し、前記エリア毎の繁忙度をもとに前記撮影範囲の領域における繁忙箇所を検出する繁忙情報計算部と、を有すること、を特徴とする繁忙検知システム。
Built-in or connected to a fixed camera system that includes a fixed camera that captures a predetermined shooting range, and is a system that detects busyness due to changes in objects in the area of the shooting range,
A frame processing unit that acquires a plurality of continuous frames of still images based on a moving image or a still image captured by the fixed camera and performs a process of dividing each frame into a plurality of areas;
A first data creation unit that performs processing for creating first data including information on each pixel in each area of the frame based on the first plurality of frames corresponding to the shooting range;
A second data creation unit that performs processing for creating second data including information on each pixel in each area of the frame based on each frame to be detected corresponding to the imaging range;
The distance indicating the similarity between the first and second data for each area by comparing the pixel information of each area of the second data with the pixel information of each area of the first data A distance calculator for calculating the value;
For the second data, based on the distance value for each area, for each area, a busyness indicating the degree of busyness due to object fluctuations in the area of the shooting range is calculated, and the busyness for each area is calculated. A busy information calculation unit for detecting a busy point in the area of the photographing range.
請求項1に記載の繁忙検知システムにおいて、
前記第1のデータ作成部は、前記第1の複数フレームにおける前記エリア毎の画素値のヒストグラムの統計値を含む前記第1のデータを作成する処理を行い、
前記第2のデータ作成部は、前記各々のフレームにおける前記エリア毎の画素値のヒストグラムを含む前記第2のデータを作成する処理を行い、
前記距離計算部は、前記第1のデータの各エリアの画素値のヒストグラムの統計値に対して前記第2のデータの各エリアの画素値のヒストグラムを比較して、両者の差分をとることにより、または前者の統計値による範囲内に後者が収まる度合いを判定することにより、前記エリア毎の距離値を計算すること、を特徴とする繁忙検知システム。
In the busy detection system according to claim 1,
The first data creation unit performs processing for creating the first data including a statistical value of a histogram of pixel values for each area in the first plurality of frames,
The second data creation unit performs a process of creating the second data including a histogram of pixel values for each area in each frame,
The distance calculation unit compares the histogram of the pixel value of each area of the second data with the statistical value of the histogram of the pixel value of each area of the first data, and takes the difference between the two Or calculating a distance value for each of the areas by determining a degree of the latter falling within a range based on the former statistical value.
請求項1に記載の繁忙検知システムにおいて、
前記距離計算部は、前記エリア毎の距離値をもとに、所定の閾値との比較により、前記エリア毎に、前記動体の変動に関する第1の指標値を2値で計算し、
前記繁忙情報計算部は、前記エリア毎の第1の指標値をもとに、前記エリア毎に、前記繁忙度を計算すること、を特徴とする繁忙検知システム。
In the busy detection system according to claim 1,
The distance calculation unit calculates a first index value relating to the variation of the moving object as a binary value for each area by comparing with a predetermined threshold based on the distance value for each area,
The busy information calculation unit calculates the busyness for each area based on a first index value for each area.
請求項1に記載の繁忙検知システムにおいて、
前記距離計算部は、前記エリア毎の距離値をもとに、前記エリア毎に、前記動体の変動に関する第1の指標値を多値で計算し、
前記繁忙情報計算部は、前記エリア毎の第1の指標値をもとに、前記エリア毎に、前記繁忙度を計算すること、を特徴とする繁忙検知システム。
In the busy detection system according to claim 1,
The distance calculation unit calculates a first index value related to the variation of the moving object as a multi-value for each area based on the distance value for each area,
The busy information calculation unit calculates the busyness for each area based on a first index value for each area.
請求項1に記載の繁忙検知システムにおいて、
前記繁忙情報計算部は、前記エリア毎の距離値または当該距離値から計算した第1の指標値を用いて、前記エリア毎かつ時間帯毎に、統計値をとることにより、前記繁忙度を計算し、前記エリア毎かつ時間帯毎の繁忙度をもとに、前記撮影範囲の領域における繁忙箇所となるエリア及び時間帯を検出すること、を特徴とする繁忙検知システム。
In the busy detection system according to claim 1,
The busy information calculation unit calculates the busyness by taking a statistical value for each area and for each time period using the distance value for each area or the first index value calculated from the distance value. Then, based on the busyness for each area and for each time zone, an area and a time zone that are busy locations in the area of the imaging range are detected.
請求項5に記載の繁忙検知システムにおいて、
前記繁忙情報計算部は、前記エリア毎の距離値または当該距離値から計算した第1の指標値を用いて、前記統計値として、前記時間帯における前記距離値または第1の指標値が大きいエリアの出現の頻度を計算することにより、前記繁忙度を計算すること、を特徴とする繁忙検知システム。
In the busy detection system according to claim 5,
The busy information calculation unit uses the distance value for each area or the first index value calculated from the distance value, and the statistical value is an area where the distance value or the first index value is large in the time zone. The busyness detection system characterized by calculating the said busyness degree by calculating the frequency of appearance of.
請求項1に記載の繁忙検知システムにおいて、
前記撮影範囲における店舗内の空間的な配置の構成と、前記フレームの分割による複数のエリアの構成と、が対応付けられて設定されることにより、前記繁忙箇所は、前記店舗内の特定の箇所に対応付けられたエリアとして検出されること、を特徴とする繁忙検知システム。
In the busy detection system according to claim 1,
The busy location is a specific location in the store by setting the configuration of the spatial arrangement in the store in the shooting range and the configuration of a plurality of areas by dividing the frame. A busy detection system characterized by being detected as an area associated with the.
所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、前記撮影範囲の領域における物体の変動による繁忙を検知するシステムとしてコンピュータを機能させるプログラムであり、
前記固定カメラで撮影した動画像または静止画に基づき、連続した複数の各々の静止画のフレームを取得し、各フレームを複数のエリアに分割する処理を行うステップと、
前記撮影範囲に対応した、基準とする第1の複数フレームをもとに、当該フレームの各エリアの各画素の情報を含む第1のデータを作成する処理を行うステップと、
前記撮影範囲に対応した、検知対象とする各々のフレームをもとに、当該フレームの各エリアの各画素の情報を含む第2のデータを作成する処理を行うステップと、
前記第1のデータの各エリアの画素値の情報に対して前記第2のデータの各エリアの画素値の情報を比較し、エリア毎に、当該第1、第2のデータ間における類似度を示す距離値を計算するステップと、
前記第2のデータについて、前記エリア毎の距離値に基づいて、前記エリア毎に、前記撮影範囲の領域における物体の変動による繁忙の度合いを示す繁忙度を計算し、前記エリア毎の繁忙度をもとに前記撮影範囲の領域における繁忙箇所を検出するステップと、を実行すること、を特徴とする繁忙検知プログラム。
A program that is built in or connected to a fixed camera system including a fixed camera that captures a predetermined shooting range, and that causes the computer to function as a system that detects busyness due to changes in objects in the shooting range area,
Based on a moving image or still image captured by the fixed camera, obtaining a plurality of continuous still image frames, and performing a process of dividing each frame into a plurality of areas;
Performing a process of creating first data including information of each pixel in each area of the frame based on a first plurality of frames corresponding to the imaging range as a reference;
Performing a process of creating second data including information of each pixel in each area of the frame based on each frame to be detected corresponding to the shooting range;
The pixel value information of each area of the second data is compared with the pixel value information of each area of the first data, and the similarity between the first and second data is calculated for each area. Calculating a distance value to indicate;
For the second data, based on the distance value for each area, for each area, a busyness indicating the degree of busyness due to object fluctuations in the area of the shooting range is calculated, and the busyness for each area is calculated. And a step of detecting a busy point in the area of the imaging range.
JP2010119393A 2010-05-25 2010-05-25 Busy detection system and busy detection program Active JP5599228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010119393A JP5599228B2 (en) 2010-05-25 2010-05-25 Busy detection system and busy detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010119393A JP5599228B2 (en) 2010-05-25 2010-05-25 Busy detection system and busy detection program

Publications (2)

Publication Number Publication Date
JP2011248513A true JP2011248513A (en) 2011-12-08
JP5599228B2 JP5599228B2 (en) 2014-10-01

Family

ID=45413713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010119393A Active JP5599228B2 (en) 2010-05-25 2010-05-25 Busy detection system and busy detection program

Country Status (1)

Country Link
JP (1) JP5599228B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246651A (en) * 2012-05-25 2013-12-09 Toshiba Corp Object detection device, object detection method and object detection program
WO2016002173A1 (en) * 2014-06-30 2016-01-07 パナソニックIpマネジメント株式会社 Flow line analysis system, camera device, and flow line analysis method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179880A (en) * 1995-12-27 1997-07-11 Hitachi Ltd Device and method for extracting important image of moving picture
JP2005078195A (en) * 2003-08-28 2005-03-24 Oki Electric Ind Co Ltd Background image generator
JP2007293559A (en) * 2006-04-25 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> Device and method for detecting non-stationary image, and program mounted with the method
JP2009064287A (en) * 2007-09-07 2009-03-26 Meidensha Corp Intruder detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179880A (en) * 1995-12-27 1997-07-11 Hitachi Ltd Device and method for extracting important image of moving picture
JP2005078195A (en) * 2003-08-28 2005-03-24 Oki Electric Ind Co Ltd Background image generator
JP2007293559A (en) * 2006-04-25 2007-11-08 Nippon Telegr & Teleph Corp <Ntt> Device and method for detecting non-stationary image, and program mounted with the method
JP2009064287A (en) * 2007-09-07 2009-03-26 Meidensha Corp Intruder detector

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246651A (en) * 2012-05-25 2013-12-09 Toshiba Corp Object detection device, object detection method and object detection program
WO2016002173A1 (en) * 2014-06-30 2016-01-07 パナソニックIpマネジメント株式会社 Flow line analysis system, camera device, and flow line analysis method
US9948901B2 (en) 2014-06-30 2018-04-17 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system, camera, and moving information analyzing method

Also Published As

Publication number Publication date
JP5599228B2 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
US10070053B2 (en) Method and camera for determining an image adjustment parameter
US8224088B2 (en) Method for background generation and its system for video surveillance
JP5701005B2 (en) Object detection apparatus, object detection method, surveillance camera system, and program
JP6969871B2 (en) Movement status estimation device, movement status estimation method and program
RU2607774C2 (en) Control method in image capture system, control apparatus and computer-readable storage medium
US10713798B2 (en) Low-complexity motion detection based on image edges
US7778445B2 (en) Method and system for the detection of removed objects in video images
US20120019728A1 (en) Dynamic Illumination Compensation For Background Subtraction
US20160205291A1 (en) System and Method for Minimizing Motion Artifacts During the Fusion of an Image Bracket Based On Preview Frame Analysis
CN112805996B (en) Device and method for generating slow motion video clip
US20090310822A1 (en) Feedback object detection method and system
KR101747216B1 (en) Apparatus and method for extracting target, and the recording media storing the program for performing the said method
JP6270433B2 (en) Information processing apparatus, information processing method, and information processing system
CN109447022B (en) Lens type identification method and device
JP2018097611A (en) Image processing device and control method thereof
JP2011232864A (en) Facility information classification system and facility information classification program
JP5599228B2 (en) Busy detection system and busy detection program
JP5002575B2 (en) Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program
US10916016B2 (en) Image processing apparatus and method and monitoring system
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program
Maalouf et al. Offline quality monitoring for legal evidence images in video-surveillance applications
JP2010087937A (en) Video detection device, video detection method and video detection program
JP6618438B2 (en) Foreground region extraction apparatus, method, and program
US11354808B2 (en) Image processing apparatus and method and monitoring system for classifying visual elements as foreground or background
JP2020086961A (en) Image analysis device, imaging device, image analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140812

R150 Certificate of patent or registration of utility model

Ref document number: 5599228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250