JP2011248836A - Residence detection system and program - Google Patents

Residence detection system and program Download PDF

Info

Publication number
JP2011248836A
JP2011248836A JP2010124226A JP2010124226A JP2011248836A JP 2011248836 A JP2011248836 A JP 2011248836A JP 2010124226 A JP2010124226 A JP 2010124226A JP 2010124226 A JP2010124226 A JP 2010124226A JP 2011248836 A JP2011248836 A JP 2011248836A
Authority
JP
Japan
Prior art keywords
information
person
stay
score
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010124226A
Other languages
Japanese (ja)
Inventor
Kazutoshi Furukawa
和年 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2010124226A priority Critical patent/JP2011248836A/en
Publication of JP2011248836A publication Critical patent/JP2011248836A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology useful for business management and the like, which detects a location with a high degree of stillness, residence, and/or cluster of a person in an area of an imaging range, using a moving image taken by a fixed camera.SOLUTION: A residence detection system 10 performs: with either moving image data of an imaging range 45 taken by a surveillance camera 30 or analysis information 24 (person and motion line information 102) on such data, and matrix data 62 including a plurality of elements made by dividing a frame area into a plurality of blocks, mapping information on a person or a motion line in a matrix and recording a score of each element corresponding to a block where the person or the motion line overlaps; extracting the element with a high score; and outputting information on the block of the element with a high score, as detection result information on a residence location.

Description

本発明は、監視カメラ等の固定カメラにおいて撮影された動画像を利用してデータ情報処理等を行う技術に関し、特に、店舗などの施設において撮影された動画像の領域中において人物などが滞留する箇所などを検出するシステム及びプログラムに適用して有効な技術に関する。   The present invention relates to a technique for performing data information processing using a moving image captured by a fixed camera such as a surveillance camera, and in particular, a person or the like stays in a region of a moving image captured in a facility such as a store. The present invention relates to a technique that is effective when applied to a system and program for detecting a location.

現在では、例えばコンビニエンスストア店舗などの様々な施設において、防犯目的などの様々な目的のために、監視カメラや監視カメラシステム(以下では単に「監視カメラ」と記載する場合がある)が設置されている。監視カメラは高機能・高性能化し続けており、様々な機能を有するものが市場に提供されている。   Currently, surveillance cameras and surveillance camera systems (hereinafter sometimes referred to simply as “surveillance cameras”) have been installed for various purposes such as crime prevention in various facilities such as convenience store stores. Yes. Surveillance cameras continue to be highly functional and high performance, and cameras having various functions are provided to the market.

監視カメラの機能としては、施設内外の画像(動画像)の撮影と記録という基本的な機能に加えて、付加的な機能としては、撮影した動画像に対する画像解析処理等に基づいて、動体を検出する機能、および検出した動体の特徴に基づいて人物や顔などの特定の対象物を検出する機能などがある。   As a function of the surveillance camera, in addition to the basic function of shooting and recording images inside and outside the facility (moving images), as an additional function, a moving object is selected based on image analysis processing on the captured moving images. There are a function to detect and a function to detect a specific object such as a person or a face based on the detected feature of the moving object.

特開2010−15465号公報(特許文献1)は、監視カメラの画像データを利用して、店舗等への入場者の数を計測するシステムについて記載されている。   Japanese Patent Laying-Open No. 2010-15465 (Patent Document 1) describes a system that measures the number of visitors to a store or the like using image data of a surveillance camera.

特開2007−74330号公報(特許文献2)は、監視カメラの撮影映像を解析すること(人物の滞在時間の判別など)により、例えば購買意欲を持った顧客かどうか、不審者かどうか等を認識する技術について記載されている。特許文献2では、店舗PCは、監視カメラによる撮影画像内に含まれている人物の特徴から監視対象者を特定すると共に、この監視対象者が登場してから現時点までの滞在時間を計時し、その判別に応じて担当者へ通知することが記載されている。また監視対象者の年齢層・性別などを推測することが記載されている。   Japanese Patent Laid-Open No. 2007-74330 (Patent Document 2) analyzes whether or not a customer has a willingness to purchase, whether or not a suspicious person, etc. It describes the technology to recognize. In Patent Document 2, the store PC specifies the monitoring target person from the characteristics of the person included in the image captured by the monitoring camera, and measures the staying time from the appearance of the monitoring target person to the present time. It is described that the person in charge is notified according to the determination. In addition, it is described that the age group and gender of the monitoring subject are estimated.

特開2006−197226号公報(特許文献3)は、防犯目的に限らず店舗管理にも利用できる監視カメラシステムについて記載されている。固定式カメラと移動式カメラを用いること等が記載されている。   Japanese Patent Laying-Open No. 2006-197226 (Patent Document 3) describes a surveillance camera system that can be used not only for crime prevention purposes but also for store management. The use of a fixed camera and a movable camera is described.

特開2010−15465号公報JP 2010-15465 A 特開2007−74330号公報JP 2007-74330 A 特開2006−197226号公報JP 2006-197226 A

従来の監視カメラシステムは、防犯目的で設置・利用されることが多く、防犯目的では店舗内の人物を概略的に把握することができ有効である。防犯目的以外の目的として、コンビニエンスストア店舗等の施設における経営管理等の目的で利用することが考えられるが(例えば特許文献1〜3)、活用が不十分であった。   Conventional surveillance camera systems are often installed and used for crime prevention purposes. For security purposes, it is possible to roughly grasp a person in a store and is effective. As a purpose other than the crime prevention purpose, it may be used for the purpose of business management or the like in a facility such as a convenience store store (for example, Patent Documents 1 to 3), but the utilization is insufficient.

例えば従来の監視カメラシステムでは、撮影範囲の領域における人物等の静止・滞留・集合などの状況を数値化・検出して経営管理に役立てるといった可能性については十分に検討・実現がされていない。例えば、撮影範囲に対応した背景領域(例えば店舗内の商品等の配置構成)において、来店客などが特定の箇所(通路や商品棚など)に立ち寄る・立ち止まること、あるいは特定の箇所に対し複数の人物が集まったり通過したりすること、等による特定の箇所(「滞留箇所」)を判定するシステムは実現されていない。例えば特許文献1は人物数の計測、特許文献2は滞在時間の計測であり、店舗内の特定の滞留箇所を判定するものではない。   For example, in a conventional surveillance camera system, the possibility of quantifying and detecting the situation such as stillness, staying, and gathering of people in the area of the shooting range and using them for business management has not been sufficiently studied and realized. For example, in the background area corresponding to the shooting range (for example, the arrangement configuration of products in the store), the customer visits or stops at a specific location (passage, product shelf, etc.), or multiple A system for determining a specific location (“staying location”) due to the gathering and passing of people, etc. has not been realized. For example, Patent Literature 1 is measurement of the number of persons, and Patent Literature 2 is measurement of stay time, and does not determine a specific staying place in the store.

以上を鑑み、本発明の目的は、監視カメラなどの固定カメラにおいて撮影された動画像を用いて、撮影範囲の領域における人物等の静止・滞留・集合などの度合いを数値化して滞留箇所を検出して経営管理等に役立てることができるシステム等を提供することにある。本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。   In view of the above, an object of the present invention is to detect a staying location by using a moving image taken by a fixed camera such as a surveillance camera to quantify the degree of stillness, staying, and gathering of a person in the shooting range area. It is to provide a system that can be used for business management. The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

前記目的を達成するために、本発明の代表的な実施の形態は、以下の特徴を有するものである。本滞留検出システムは、所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、撮影範囲の領域における人物等の対象物の滞留を検出するシステムであり、固定カメラで撮影した撮影範囲に対応した検出対象とする動画像または静止画のフレームデータまたはその画像解析情報の少なくとも一方を取得し、フレームデータまたは画像解析情報をもとに、撮影範囲に対応したフレーム領域における人物またはその動線の情報を取得する処理を行うデータ取得部と、撮影範囲に対応したフレーム領域を複数のブロックに分割してなる複数の要素を持つマトリックスのデータを用いて、フレーム領域における人物またはその動線の情報をマトリックス上のブロックにマッピングし、当該人物またはその動線が重なるブロック対応の要素ごとのスコアを記録する処理と、マトリックスにおけるスコアが高い要素を抽出する処理と、スコアが高い要素のブロックの情報を滞留箇所の検出結果情報として出力する処理と、を行う滞留検出部と、を有する。   To achieve the above object, a typical embodiment of the present invention has the following characteristics. This stay detection system is a system built in or connected to a fixed camera system including a fixed camera for shooting a predetermined shooting range, and detects the stay of an object such as a person in the shooting range area. Acquire at least one of moving image or still image frame data to be detected corresponding to the shooting range or image analysis information thereof, and based on the frame data or image analysis information, a person in the frame area corresponding to the shooting range or Using a data acquisition unit that performs processing for acquiring the flow line information and matrix data having a plurality of elements obtained by dividing the frame region corresponding to the shooting range into a plurality of blocks, the person in the frame region or its Map the flow line information to the blocks on the matrix, and the person or its flow line overlaps Residue detection that performs the process of recording the score for each element corresponding to the lock, the process of extracting the element having a high score in the matrix, and the process of outputting the block information of the element having a high score as the detection result information of the staying part Part.

また、本発明は、コンピュータを上記のようなシステムとして機能させるプログラムにも適用することができる。   The present invention can also be applied to a program that causes a computer to function as the system as described above.

本発明の代表的な実施の形態によれば、監視カメラなどの固定カメラにおいて撮影された動画像を用いて、撮影範囲の領域における人物等の静止・滞留・集合などの度合いを数値化して滞留箇所を検出して経営管理等に役立てることができる。   According to a typical embodiment of the present invention, a moving image captured by a fixed camera such as a surveillance camera is used to quantify the degree of stillness / staying / aggregation of a person or the like in a shooting range area. The location can be detected and used for business management.

本発明の一実施の形態である滞留検出システムを含む監視カメラシステムの構成例について概要を示した図である。It is the figure which showed the outline | summary about the structural example of the surveillance camera system containing the residence detection system which is one embodiment of this invention. 本発明の一実施の形態における滞留検出処理の流れの例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the flow of the stay detection process in one embodiment of this invention. 本発明の一実施の形態における、撮影範囲の領域及び対応情報の例を示した図である。It is the figure which showed the example of the area | region of the imaging | photography range, and correspondence information in one embodiment of this invention. 本発明の一実施の形態における、撮影範囲の領域に対応したマトリックスの構成例及びマトリックス上の人物動線のプロット例を示した図である。It is the figure which showed the structural example of the matrix corresponding to the area | region of the imaging | photography range, and the example of a plot of the person flow line on a matrix in one embodiment of this invention. 本発明の一実施の形態における、マトリックス上の要素抽出の例及び滞留箇所の例を示した図である。It is the figure which showed the example of the element extraction on a matrix, and the example of a residence location in one embodiment of this invention. 本発明の一実施の形態における、滞留箇所の例を示した図である。It is the figure which showed the example of the stay location in one embodiment of this invention.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。本実施の形態の滞留検出システムを含む監視カメラシステムでは、店舗等の施設で固定カメラにより撮影した動画像をもとに、撮影範囲の領域において人物(複数人の場合を含む)が静止・滞留・集合するような度合い(「滞留度」)が高い箇所(「滞留箇所」)を判定し検出する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the surveillance camera system including the stay detection system according to the present embodiment, a person (including a case of a plurality of persons) stays and stays in a shooting range area based on a moving image taken by a fixed camera in a facility such as a store. -Determine and detect places ("staying places") where the degree of gathering ("staying degree") is high.

[システム構成]
図1において、本発明の一実施の形態であるシステム10を含む監視カメラシステム(固定カメラシステム)100の構成例について概要を示す。本監視カメラシステム100は、滞留検出システム10、監視カメラサーバ20、監視カメラ(固定カメラ)30、及び店舗40などから構成される。
[System configuration]
FIG. 1 shows an outline of a configuration example of a surveillance camera system (fixed camera system) 100 including a system 10 according to an embodiment of the present invention. The surveillance camera system 100 includes a stay detection system 10, a surveillance camera server 20, a surveillance camera (fixed camera) 30, a store 40, and the like.

店舗40には、1つ以上の監視カメラ30が設置される。監視カメラ30は所定の撮影範囲45を撮影する。各監視カメラ30は、監視カメラサーバ20に接続される。監視カメラサーバ20は、店舗40内部に構成されるか、ネットワーク等を介して店舗40外部に構成されてもよい。監視カメラサーバ20に対し、滞留検出システム10が接続される。滞留検出システム10は、店舗40内のシステムとして構成されてもよいし、外部ネットワーク上のシステムとして構成されてもよい。   One or more surveillance cameras 30 are installed in the store 40. The surveillance camera 30 captures a predetermined imaging range 45. Each surveillance camera 30 is connected to the surveillance camera server 20. The monitoring camera server 20 may be configured inside the store 40 or may be configured outside the store 40 via a network or the like. The stay detection system 10 is connected to the monitoring camera server 20. The stay detection system 10 may be configured as a system in the store 40 or may be configured as a system on an external network.

店舗40は、例えばコンビニエンスストア店舗などである。監視カメラ30の撮影範囲45は、例えば店舗40内の通路や商品陳列棚などの所定の固定的な空間領域を対象とする。本実施の形態では、撮影範囲45は、店舗40内の商品陳列棚を含むものである(図3)。監視カメラ30による撮影範囲45を対象として撮影される動画像は、動画像データ23として監視カメラサーバ20内に記録される。   The store 40 is, for example, a convenience store store. The imaging range 45 of the monitoring camera 30 is for a predetermined fixed space area such as a passage in the store 40 or a product display shelf. In the present embodiment, the shooting range 45 includes a merchandise display shelf in the store 40 (FIG. 3). A moving image shot for the shooting range 45 by the monitoring camera 30 is recorded in the monitoring camera server 20 as moving image data 23.

監視カメラサーバ20は、例えば、コンピュータシステムによって構成され、ソフトウェアプログラムによって実装される監視カメラ制御部21および画像解析部22の各部と、動画像データ23および解析情報24の各データもしくはデータベースを有する。これにより、監視カメラサーバ20は、監視カメラ30によって撮影された動画像を動画像データ23として記録する機能を有する。また監視カメラサーバ20は、記録した動画像データ23をもとに、画像解析部22による画像解析処理を行うことにより、撮影範囲45の領域内における、移動する人物やその顔などの対象、及びその動線(軌跡)などを検出することができる公知の機能(人物検出機能及び動線検出機能)を有する。画像解析部22等の処理内容は設定情報に基づいて可変に設定できる。画像解析部22(人物検出機能及び動線検出機能)による解析情報24(人物・動線情報102)が監視カメラサーバ20内に記録される。   The monitoring camera server 20 includes, for example, a computer system and each unit of the monitoring camera control unit 21 and the image analysis unit 22 implemented by a software program, and each data or database of the moving image data 23 and the analysis information 24. As a result, the monitoring camera server 20 has a function of recording a moving image taken by the monitoring camera 30 as moving image data 23. In addition, the surveillance camera server 20 performs image analysis processing by the image analysis unit 22 based on the recorded moving image data 23, so that a moving person and its face in the area of the shooting range 45, and It has a known function (person detection function and flow line detection function) that can detect the flow line (trajectory) and the like. The processing content of the image analysis unit 22 and the like can be variably set based on the setting information. Analysis information 24 (person / flow line information 102) by the image analysis unit 22 (person detection function and flow line detection function) is recorded in the monitoring camera server 20.

本実施の形態では、監視カメラサーバ20は上記の人物検出機能及び動線検出機能を備え、本滞留検出システム10は、上記の公知の検出機能(その検出情報)を手段として利用して、目的(滞留検出)を実現する。なお滞留検出システム10側に上記の検出機能を備えて実現してもよい。また検出対象は、人に限定せずに、他の動体(例えば自動車など)にすることもできる。その場合はその検出対象に対応した検出機能を有し、対応する座標情報などを処理する形態となる。   In the present embodiment, the surveillance camera server 20 has the person detection function and the flow line detection function, and the stay detection system 10 uses the above-described known detection function (its detection information) as a means. (Residence detection) is realized. The stay detection system 10 may be provided with the detection function described above. The detection target is not limited to a person, but can be another moving body (for example, an automobile). In that case, a detection function corresponding to the detection target is provided, and the corresponding coordinate information is processed.

監視カメラサーバ20は、監視カメラ制御部21により監視カメラ30を制御する。この制御としては、例えば、監視カメラ30による撮影の実行・停止、撮影範囲45の設定や変更、露出等の撮影条件の変更などが含まれ得る。特に監視カメラ30の向き等を変えることにより、所望の撮影範囲45を設定することが可能である。   The monitoring camera server 20 controls the monitoring camera 30 by the monitoring camera control unit 21. This control may include, for example, execution / stop of shooting by the monitoring camera 30, setting or changing the shooting range 45, changing shooting conditions such as exposure, and the like. In particular, it is possible to set a desired shooting range 45 by changing the orientation of the monitoring camera 30 or the like.

滞留検出システム10は、例えば、コンピュータシステムによって構成され、ソフトウェアプログラムによって実装されるデータ取得部(フレーム処理部)11、滞留検出部12、及び出力部13の各部と、フレームデータ60、人物・動線情報61、マトリックスデータ62、及び検出結果(滞留情報)63の各データもしくはデータベースを有する。これにより、本滞留検出システム10は、監視カメラ30及び監視カメラサーバ20による撮影動画像から撮影範囲45の領域における滞留箇所の情報(滞留情報63)を計算・検出する機能を有する。   The stay detection system 10 includes, for example, a data acquisition unit (frame processing unit) 11, a stay detection unit 12, and an output unit 13 which are configured by a computer system and implemented by a software program, frame data 60, person / motion. Each data or database includes line information 61, matrix data 62, and detection results (staying information) 63. As a result, the stagnation detection system 10 has a function of calculating and detecting information on the stagnation location (the stagnation information 63) in the area of the photographic range 45 from the photographic moving images obtained by the surveillance camera 30 and the surveillance camera server 20.

また滞留検出システム10は、図示しないが、店舗管理者等の操作により各種情報を設定するための設定手段を備え、処理対象のフレームや時間、判定用の閾値などを設定することが可能である。   Although not shown, the stay detection system 10 includes setting means for setting various types of information by operations of a store manager or the like, and can set a processing target frame, time, determination threshold value, and the like. .

データ取得部(フレーム処理部)11は、監視カメラサーバ20から、滞留検出部12での処理に必要なデータ情報である、動画像データ23及び解析情報24(人物・動線情報102)を取得・入力する。取得した動画像データ23は、例えば連続的な複数の静止画(フレーム)を含むフレームデータ60として保存する。また取得した人物・動線情報102を、人物・動線情報61として保存する。またデータ取得部11は、フレーム領域を複数のブロックに分割する処理などを行ってもよい(マトリックスデータ62の作成に関連する処理)。   The data acquisition unit (frame processing unit) 11 acquires, from the monitoring camera server 20, moving image data 23 and analysis information 24 (person / flow line information 102), which are data information necessary for processing in the stay detection unit 12. ·input. The acquired moving image data 23 is stored as frame data 60 including a plurality of continuous still images (frames), for example. The acquired person / flow line information 102 is stored as person / flow line information 61. The data acquisition unit 11 may perform a process of dividing the frame area into a plurality of blocks (a process related to the creation of the matrix data 62).

またデータ取得部11は、監視カメラサーバ20から人物・動線情報102として人物・動線の時系列での座標情報を取得できるのであれば、動画像データ23(フレームデータ60)の取得や処理は必須ではない。例えば監視カメラサーバ20と滞留検出システム10(サーバ等)がネットワークを介して接続されるような形態とする場合、上記人物・動線情報102(例えばテキストデータ形式)のみをデータ取得部11で取得(受信)し、動画像データ23の授受をしないようにする。   If the data acquisition unit 11 can acquire time-series coordinate information of a person / flow line as the person / flow line information 102 from the monitoring camera server 20, the data acquisition unit 11 acquires or processes the moving image data 23 (frame data 60). Is not required. For example, when the surveillance camera server 20 and the stay detection system 10 (server, etc.) are connected via a network, the data acquisition unit 11 acquires only the person / flow line information 102 (for example, text data format). (Receive) so that the moving image data 23 is not exchanged.

滞留検出部12は、フレームデータ60、人物・動線情報61、及びマトリックスデータ62等を用いて、滞留検出処理(図2、後述)を行い、その検出結果(滞留情報を含む)63を保存する。滞留情報63は、監視カメラ30の撮影範囲45の領域における検出された滞留箇所の情報を含む。滞留検出部12等の処理内容は設定情報に基づいて可変に設定できる。   The stay detection unit 12 uses the frame data 60, the person / flow line information 61, the matrix data 62, and the like to perform stay detection processing (FIG. 2, described later), and stores the detection result (including stay information) 63. To do. The staying information 63 includes information on the staying place detected in the area of the shooting range 45 of the monitoring camera 30. The processing content of the stay detection unit 12 and the like can be variably set based on the setting information.

出力部13は、検出結果(滞留情報)63を用いて出力処理を行う。例えば該当の店舗40の管理者等のコンピュータ端末への検出結果63のデータ送信や当該端末画面への情報表示などを行う。また例えばリアルタイムで撮影映像に検出結果63などを重ね合わせて表示する場合、出力部13は、検出結果63のデータを、監視カメラサーバ20等へフィードバック転送し、監視カメラサーバ20等で撮影映像(撮影範囲45の領域)に滞留情報63などを重ね合わせるようにしてもよい。   The output unit 13 performs output processing using the detection result (retention information) 63. For example, data transmission of the detection result 63 to a computer terminal such as an administrator of the corresponding store 40 and information display on the terminal screen are performed. Further, for example, when displaying the detection result 63 and the like superimposed on the captured video in real time, the output unit 13 feeds back the data of the detection result 63 to the monitoring camera server 20 or the like, and the captured video ( The staying information 63 and the like may be overlaid on the imaging range 45).

フレームデータ60や人物・動線情報61の例は図3のフレーム301(人物の動線310)である。マトリックスデータ62の例は図4の401である。検出結果(滞留情報)63の例は図5の502や図6である。   Examples of the frame data 60 and the person / flow line information 61 are the frame 301 (person flow line 310) in FIG. An example of the matrix data 62 is 401 in FIG. Examples of the detection result (retention information) 63 are 502 in FIG. 5 and FIG.

なお、本実施の形態では、滞留検出システム10を監視カメラサーバ20とは独立した機器・システムとして実装する場合の例を示しているが、滞留検出システム10の各部を構成するプログラムやデータを監視カメラサーバ20内に組み込んで、監視カメラサーバ20と一体として実装するようにしてもよい。   In this embodiment, an example in which the stagnation detection system 10 is implemented as a device / system independent of the monitoring camera server 20 is shown. However, the program and data constituting each part of the stagnation detection system 10 are monitored. It may be incorporated in the camera server 20 so as to be integrated with the monitoring camera server 20.

[処理内容]
図2は、本システム(10,100)において、監視カメラ30の撮影映像をもとに滞留箇所などを計算・検出する際の処理(滞留検出処理)の流れの例について概要を示す。例えば店舗管理者等によるコンピュータ端末画面での操作に基づいて、滞留検出システム10に対し、設定処理(S01)、撮影処理(S02)、滞留検出処理(S10〜S40)などを指示し実行する。また本実施の形態では、一旦S02で対象の撮影範囲45を撮影した後に、その撮影データ等を用いてS10以降の処理を行う形態とするが、S02の撮影実行と共にリアルタイムでS10以降の処理を行う形態とすることもできる。なお事前に設定処理(S01)や撮影処理(S02)が済んでいる場合は当該処理実行を省略可能である。また監視カメラサーバ20側で解析処理(S10)が済んでいる場合は、滞留検出システム10側での解析処理(S10)は省略可能である。
[Processing content]
FIG. 2 shows an outline of an example of a flow of processing (staying detection processing) when calculating and detecting a staying location and the like based on the video captured by the monitoring camera 30 in the present system (10, 100). For example, based on the operation on the computer terminal screen by a store manager or the like, the setting process (S01), the photographing process (S02), the stay detection process (S10 to S40), etc. are instructed and executed to the stay detection system 10. Further, in the present embodiment, after photographing the target photographing range 45 in S02, the processing after S10 is performed using the photographing data or the like. However, the processing after S10 is performed in real time with the photographing execution in S02. It can also be set as the form to perform. If the setting process (S01) and the photographing process (S02) have been completed in advance, the process execution can be omitted. When the analysis process (S10) has been completed on the monitoring camera server 20 side, the analysis process (S10) on the stay detection system 10 side can be omitted.

(S01) S01では、設定処理として、店舗管理者等の操作に基づき、滞留検出システム10(設定手段)に対し、滞留検出の対象とする撮影範囲45、フレーム、日時、条件や閾値、マトリックス(62)の分割構成などの情報を設定する。   (S01) In S01, as the setting process, based on the operation of the store manager or the like, the staying detection system 10 (setting means) is set to the shooting range 45, frame, date / time, condition or threshold, matrix ( 62) information such as the division configuration is set.

(S02) S02では、対象の撮影範囲45について、監視カメラ30による撮影を実行し、データ取得部11は、監視カメラサーバ20から対象の動画像データ23を取得し、フレームデータ60とする。あるいは、データ取得部11は、撮影済みの動画像データ23を取得して、フレームデータ60としてもよい。例えば店舗管理者等により撮影の開始・終了等を指定して、任意数のフレームを検出処理対象として取得する。また特に、日時ごとの撮影データを取得して検出処理対象としてもよい。   (S <b> 02) In S <b> 02, shooting by the monitoring camera 30 is executed for the target shooting range 45, and the data acquisition unit 11 acquires the target moving image data 23 from the monitoring camera server 20 and sets it as frame data 60. Alternatively, the data acquisition unit 11 may acquire the captured moving image data 23 as the frame data 60. For example, the store manager or the like designates the start / end of shooting and acquires an arbitrary number of frames as detection processing targets. In particular, it is also possible to acquire shooting data for each date and set it as a detection processing target.

(S10) S10では、監視カメラ30の撮影範囲45の動画像(フレーム領域)の中から、人物やその動線を検出する処理(S11,S12)を行う。本実施の形態では、前述した監視カメラサーバ20に備える画像解析部22の公知の検出機能を利用して行われる。   (S10) In S10, processing (S11, S12) for detecting a person and its flow line from the moving image (frame region) in the shooting range 45 of the monitoring camera 30 is performed. In the present embodiment, the detection is performed using a known detection function of the image analysis unit 22 provided in the monitoring camera server 20 described above.

(S11) まず人物検出機能を用いて、フレーム領域(例えば図3の301)の中から、人物を検出する。複数の人物が存在する場合はそれぞれ検出する。検出情報は、例えばフレーム領域における人物の現在位置の座標の情報を有する。座標は、検出方式に応じて、例えば画素座標としてもよいし、画素よりも粗い単位での位置情報としてもよい。   (S11) First, a person is detected from a frame region (for example, 301 in FIG. 3) using the person detection function. If there are multiple persons, each is detected. The detection information includes, for example, information on the coordinates of the current position of the person in the frame area. The coordinates may be, for example, pixel coordinates or position information in units coarser than the pixels, depending on the detection method.

(S12) S11で検出した人物について、フレーム領域の中で動いた軌跡(動線)をフレーム領域内の座標などの形で把握する。例えば、所定フレーム(例えば1フレーム)ごとに人物の現在位置の座標を把握し、各座標をつなげることで動線(例えば310)が構成される。   (S12) For the person detected in S11, the trajectory (flow line) moved in the frame area is grasped in the form of coordinates in the frame area. For example, the flow line (for example, 310) is formed by grasping the coordinates of the current position of the person for each predetermined frame (for example, one frame) and connecting the coordinates.

図3では、フレーム領域301は、所定の撮影範囲45の3次元の空間領域に対応した例であり、背景領域(通路、商品棚などを含む)と、その上に重ね合わせた人物動線(310)などを示している。K1〜K3等は、店舗40内における区画領域(通路等)を示す。破線は区画領域の境界線を示す。E1〜E4等は、商品棚などを示す。P2は商品例を示す。動線(軌跡)は、人物の位置の時系列(フレーム時間等)での変化を示す。ある人物の動線310上、311で示す三角のマークは、人物の現在位置(座標等)の例を示す。   In FIG. 3, a frame region 301 is an example corresponding to a three-dimensional space region of a predetermined shooting range 45, and includes a background region (including a passage, a product shelf, etc.) and a human flow ( 310). K1 to K3 and the like indicate partition areas (passages and the like) in the store 40. A broken line shows the boundary line of a division area. E1 to E4 and the like indicate product shelves and the like. P2 shows a product example. The flow line (trajectory) indicates a change in the position of the person in time series (frame time or the like). A triangular mark indicated by 311 on the flow line 310 of a person indicates an example of the current position (coordinates) of the person.

また、フレーム領域302は、3次元のフレーム領域301に対応付けられた、2次元の領域を示す。店舗40内の配置構成を上から俯瞰し、動線などの情報を重ねたものである。監視カメラ30の設置や撮影範囲45の設定に応じて、このように検出対象を2次元的にすることも可能である。例えば商品棚を正面から見る方向で撮影範囲45を設定してもよい。また、3次元の情報と2次元の情報との間で所定の対応付け・変換処理を行うようにしてもよい。2次元化することで、例えば出力時に店舗管理者等が見やすい情報にすることができる。   A frame region 302 indicates a two-dimensional region associated with the three-dimensional frame region 301. The arrangement configuration in the store 40 is looked down on from above, and information such as a flow line is superimposed. Depending on the installation of the monitoring camera 30 and the setting of the shooting range 45, the detection target can be made two-dimensional in this way. For example, the shooting range 45 may be set in a direction in which the product shelf is viewed from the front. Further, a predetermined association / conversion process may be performed between the three-dimensional information and the two-dimensional information. By making it two-dimensional, for example, it is possible to make information easy for a store manager or the like to see when outputting.

(S20) 次に、滞留検出部12により、撮影範囲45における単位領域ごとの滞留度を計算する処理を行う。本実施の形態では、マトリックス(62)で規定するブロック(Bとする)を単位領域(分割領域)とし、このブロックB毎に滞留度をスコア(sとする)として計算する。滞留検出部12は、S10までのデータ、及びマトリックスデータ62を用いて、要素(ブロックB)毎のスコアsを記録・更新する。マトリックス(62)は、行列・表などの形式である。各要素(ブロックB)はフレーム領域内での位置を示す情報などを持つ。   (S20) Next, the stay detection unit 12 performs a process of calculating the staying degree for each unit region in the imaging range 45. In the present embodiment, a block (B) defined by the matrix (62) is defined as a unit area (divided area), and the staying degree is calculated as a score (s) for each block B. The stay detection unit 12 records / updates the score s for each element (block B) using the data up to S10 and the matrix data 62. The matrix (62) has a matrix / table format. Each element (block B) has information indicating a position in the frame area.

(S21) 滞留検出部12は、撮影映像(人物・動線情報61)に基づく人物ごとの動線(310等)の座標を、フレーム領域に対応するマトリックス(62)上の要素(ブロックB)に対してプロット(マッピング)することにより、要素ごとのスコアを記録する。動線(座標)の形式に応じて適宜マッピングする。簡単には、動線が重なる要素(B)のスコアを増加する。   (S21) The stay detection unit 12 uses the coordinates of the flow line (310, etc.) for each person based on the captured video (person / flow line information 61) as an element (block B) on the matrix (62) corresponding to the frame area. Record the score for each element by plotting (mapping) against. Map appropriately according to the format of the flow line (coordinates). In brief, the score of the element (B) where the flow lines overlap is increased.

図4のマトリックス401(対応フレーム領域)において、1フレーム領域、例えば縦480画素×横640画素を、縦・横に複数の領域(ブロックB)に分割し、マトリックスを構成している。本例では、縦・横にそれぞれ8分割し、8×8=64の要素(ブロックB)を持つ場合である。1要素(ブロックB)は、縦60×横80=480画素の場合である。各要素(ブロックB)は、滞留度に関するスコアsを持つ。スコアsは、初期値を0とし、滞留単位(S22で説明)に応じてカウントアップ(+1)される。   In the matrix 401 (corresponding frame region) in FIG. 4, one frame region, for example, 480 pixels in the vertical direction × 640 pixels in the horizontal direction is divided into a plurality of regions (block B) in the vertical and horizontal directions to form a matrix. In this example, it is divided into 8 parts vertically and horizontally, and 8 × 8 = 64 elements (block B). One element (block B) is a case of 60 × 80 × 480 pixels. Each element (block B) has a score s regarding the staying degree. The score s has an initial value of 0 and is counted up (+1) according to the staying unit (described in S22).

マトリックス402は、マトリックス401(要素)上に、人物の動線(例えば420)を重ね合わせるようにプロット(マッピング)し、要素のスコアsをカウントアップ(+1)した例である。滞留検出部12は、マトリックス401上で動線420(図3の動線310と同様)が重なる要素(ブロックB)を判定し、その重なる要素(B)のスコアsを、滞留単位に応じてカウントアップ(+1)する。なお402の例では、動線420が通る各要素(B)のスコアsについて、1滞留単位の要素では+1、2滞留単位の要素では+2、5滞留単位の要素では+5、といった増加の場合である。   The matrix 402 is an example in which a person's flow line (for example, 420) is plotted (mapped) on the matrix 401 (element) so that the element score s is counted up (+1). The stay detection unit 12 determines an element (block B) where the flow line 420 (similar to the flow line 310 in FIG. 3) overlaps on the matrix 401, and the score s of the overlap element (B) is determined according to the stay unit. Count up (+1). In the example of 402, the score s of each element (B) through which the flow line 420 passes is an increase such as +1 for an element of one stay unit, +2 for an element of a stay unit, and +5 for an element of a stay unit. is there.

(S22) 滞留検出部12は、動線における人物の現在位置に応じた要素(ブロックB)のスコアsを、滞留単位の判定(例えば滞留時間の経過)ごとにカウントアップ(+1)して更新する。検出対象とする複数フレーム(時間)、複数の動線にわたって、S22のカウント処理を行う。本実施の形態では、滞留単位として、所定フレーム時間単位(例:1フレーム毎、1秒毎など)、及び人物単位を考慮し、これらの1単位ごとにカウントアップ(+1)する。例えば、複数フレームで人物が同じブロックB上に留まり続ける場合、その複数フレームの分、当該要素(B)のスコアsを増加する。また、複数の人物が同じブロックB上に留まったり通過したりする場合、その人物数の分、当該要素(B)のスコアsを増加する。上記滞留単位(カウントの方式)は設定により可変である。   (S22) The stay detection unit 12 updates the score s of the element (block B) corresponding to the current position of the person in the flow line by incrementing (+1) for each stay unit determination (for example, elapse of stay time). To do. The counting process of S22 is performed over a plurality of frames (time) to be detected and a plurality of flow lines. In the present embodiment, a predetermined frame time unit (e.g., every frame, every second, etc.) and a person unit are considered as the staying unit, and the unit is counted up (+1). For example, when a person continues to stay on the same block B in a plurality of frames, the score s of the element (B) is increased by the amount of the plurality of frames. When a plurality of persons stay on or pass through the same block B, the score s of the element (B) is increased by the number of persons. The staying unit (counting method) is variable depending on the setting.

上記マトリックス(62)の要素(ブロックB)の分割構成は、設定等に応じて可変であり、本分割構成に応じて、滞留検出の精度(効果)を調整することができる。例えば、要素の数を少なく(粗く)する場合、毎フレームの滞留箇所の計算を高速に実現できる。要素の数を多く(細かく)する場合、滞留箇所をより細かい単位で検出することができる。また例えば撮影範囲45における店舗40内の商品配置等の構成に対応付けて上記要素(ブロックB)の分割構成を設定するようにしてもよい。   The division configuration of the element (block B) of the matrix (62) is variable according to the setting or the like, and the accuracy (effect) of the stay detection can be adjusted according to this division configuration. For example, when the number of elements is reduced (rough), the calculation of the staying location for each frame can be realized at high speed. When the number of elements is increased (finely), the staying location can be detected in finer units. In addition, for example, the division configuration of the element (block B) may be set in association with the configuration such as the product arrangement in the store 40 in the shooting range 45.

(S30) 次に、滞留検出部12は、S20までの処理結果(マトリックスデータ62等)を用いて、マトリックス(62)における滞留度(スコアs)の高い要素(ブロックB)を抽出する処理を行う。   (S30) Next, the stay detection unit 12 uses the processing results up to S20 (matrix data 62 or the like) to extract an element (block B) having a high stay degree (score s) in the matrix (62). Do.

(S31) 本実施の形態では、まず、マトリックス(62)の各要素(B)のスコアsを、所定の閾値(stとする)と比較する。スコアsが閾値st以上の場合(s≧st)、当該要素(ブロックB)を抽出する。閾値stは設定により可変である。   (S31) In the present embodiment, first, the score s of each element (B) of the matrix (62) is compared with a predetermined threshold value (st). If the score s is greater than or equal to the threshold value st (s ≧ st), the element (block B) is extracted. The threshold value st is variable depending on the setting.

図5のマトリックス501(対応フレーム領域)は、S22の処理結果例のマトリックス501上で、スコアsが所定の閾値st(例えばst=8)以上の要素(ブロックB)を抽出した例である。   A matrix 501 (corresponding frame region) in FIG. 5 is an example in which an element (block B) having a score s equal to or greater than a predetermined threshold value st (for example, st = 8) is extracted from the matrix 501 of the processing result example of S22.

また、マトリックス502では、501と同様に、星印で示す複数の各要素(ブロックB)が抽出された場合であり、このS31で抽出した個々の要素(ブロックB)をそのまま個々の「滞留要素(滞留ブロック)」(第1の検出結果情報)とした例である。この第1の検出結果情報は滞留情報63として保存される。   Further, in the matrix 502, as in the case of 501, a plurality of elements (block B) indicated by asterisks are extracted, and the individual elements (block B) extracted in S31 are used as individual “retention elements”. (Standing block) "(first detection result information). The first detection result information is stored as the staying information 63.

(S32) また、滞留検出部12は、S31の結果を用いて、フレーム領域内に複数の抽出要素(ブロックB)が存在する場合は、以下の処理を行うようにしてもよい。滞留検出部12は、複数の抽出要素(B)を、クラスタリングにより1つ以上のクラスタ集合に分類する。このクラスタリング方法としては、例えばK平均法などの公知技術を利用できる。   (S32) In addition, the stay detection unit 12 may perform the following process when a plurality of extraction elements (block B) are present in the frame region using the result of S31. The stay detection unit 12 classifies the plurality of extraction elements (B) into one or more cluster sets by clustering. As this clustering method, for example, a known technique such as a K-average method can be used.

図5のマトリックス502で、各楕円で示す520は、上記クラスタリングによる分類結果であるクラスタ集合の例を示している。この分類結果であるクラスタ集合の情報は、滞留箇所を示す、第2の検出結果情報とすることができる(滞留情報63として保存される)。   In the matrix 502 of FIG. 5, 520 indicated by each ellipse indicates an example of a cluster set that is a classification result by the clustering. The cluster set information, which is the classification result, can be second detection result information indicating the stay location (stored as stay information 63).

特にS31で多数の要素が抽出された場合は、S32の分類をすることで、フレーム領域内における滞留箇所が判断しやすくなる効果がある。   In particular, when a large number of elements are extracted in S31, classification in S32 has an effect of making it easier to determine the staying location in the frame area.

(S33) また、滞留検出部12は、S31の第1の結果情報(滞留要素)、またはS32の第2の結果情報(クラスタ集合)について、滞留箇所を示す円などの情報を作成し、関連付けてもよい。この情報を第3の検出結果情報とすることができる(滞留情報63として保存される)。例えば円の中心を人物の滞留のポイントとみなし、円の大きさ(半径)を滞留範囲とみなすことができる。   (S33) Further, the stay detection unit 12 creates and associates information such as a circle indicating a staying location with respect to the first result information (stay element) in S31 or the second result information (cluster set) in S32. May be. This information can be used as the third detection result information (stored as staying information 63). For example, the center of the circle can be regarded as a person's staying point, and the size (radius) of the circle can be regarded as a staying range.

図6のマトリックス601(対応フレーム領域)では、図5のクラスタ集合520(第2の結果情報)に対し、610のように滞留箇所を示す円を作成・関連付けた例である。円の作成の仕方として、例えば、円の中心点は、クラスタ集合ごとの1つ以上の要素(ブロックB)に関する重心点をとり、中心点とする。また例えば、円の半径は、重心点からの各要素の距離の平均値をとり、半径とする。また円に限らず、楕円などの図形にしてもよい。   The matrix 601 (corresponding frame area) in FIG. 6 is an example in which a circle indicating a staying place is created and associated with the cluster set 520 (second result information) in FIG. As a method of creating a circle, for example, the center point of the circle is a center point with respect to one or more elements (block B) for each cluster set. Further, for example, the radius of the circle is an average value of the distances of the respective elements from the center of gravity, and is used as the radius. Moreover, not only a circle but a figure such as an ellipse may be used.

(S40) 滞留検出部12は、上記S30までの処理で得た検出結果情報を滞留情報63としてまとめ、保存する。滞留情報63は、例えば、数値情報だけでなく、出力処理のために、店舗管理者等のコンピュータ端末画面で表示可能な形式のデータにしてもよい。出力部13は、店舗管理者等の操作に応じて、滞留情報63を用いて出力処理を行う。例えば出力部13は、該当の店舗40の管理者等のコンピュータ端末に対して、滞留情報63のデータ送信や画面表示処理などを行う。   (S40) The stay detection unit 12 collects and stores the detection result information obtained in the processes up to S30 as the stay information 63. The staying information 63 may be not only numerical information but also data in a format that can be displayed on a computer terminal screen of a store manager or the like for output processing. The output unit 13 performs an output process using the staying information 63 in accordance with an operation of a store manager or the like. For example, the output unit 13 performs data transmission of the staying information 63, screen display processing, and the like to a computer terminal such as an administrator of the corresponding store 40.

図6のフレーム602は、601の第3の検出結果情報に対応した出力例であり、撮影範囲45の背景領域(人物などがいない状態の画像など)上に、601の滞留箇所を示す円610を重ね合わせて表示した場合である。同様に、第1、第2の検出結果情報を重ね合わせて出力してもよい。また動線などの関連情報を適宜重ね合わせて出力してもよい。滞留箇所を示す円などの情報を作成して表示することにより、フレーム領域内における滞留箇所が判断しやすくなる効果がある。   A frame 602 in FIG. 6 is an output example corresponding to the third detection result information 601, and a circle 610 indicating a staying location of 601 on a background region (such as an image in the absence of a person) of the imaging range 45. Is displayed in a superimposed manner. Similarly, the first and second detection result information may be superimposed and output. In addition, related information such as flow lines may be appropriately superimposed and output. Creating and displaying information such as a circle indicating the staying location has an effect of making it easier to determine the staying location in the frame area.

上記結果情報(滞留情報63)の参照により、店舗40の管理者等は、撮影範囲45の領域における特定の滞留箇所を判断・推定することができる。撮影範囲45やマトリックスの構成などに応じて、検出された滞留箇所は、特定の通路(区画)、商品棚、商品などに対応付けられたものとなる。   By referring to the result information (the stay information 63), the manager of the store 40 can determine and estimate a specific stay location in the area of the imaging range 45. The detected stay location is associated with a specific passage (section), product shelf, product, etc., depending on the imaging range 45, matrix configuration, and the like.

また更に、滞留検出システム10は、上記の滞留情報63及び人物・動線情報61などを用いて、人物検出機能による人物の区別に基づき、滞留箇所ごと及び時間帯ごとに立寄り人数などを計算し、検出結果情報に含めてもよい。例えば、前記ブロック等の単位で、人物の数を判定・カウントしてもよい。また例えば、図3の例のように、撮影範囲45の領域内に設定される区画(境界線)の単位で人数の数を判定・カウントしてもよい。例えば人物による境界線の通過(出入り)を、画像上の座標に基づく幾何計算によって判定し、当該区画内に滞留する人物の数をカウントすることで、当該立寄り人数を計算できる。これにより例えば特定の商品棚の前に立寄る来店客の人数などを把握することができる。   Still further, the stay detection system 10 uses the stay information 63 and the person / flow line information 61 described above to calculate the number of people who stop by for each stay location and every time zone based on the person discrimination by the person detection function. , May be included in the detection result information. For example, the number of persons may be determined and counted in units such as blocks. Further, for example, as in the example of FIG. 3, the number of persons may be determined and counted in units of sections (boundary lines) set in the area of the imaging range 45. For example, it is possible to calculate the number of people who stop by by determining the passage (in / out) of the boundary line by a person by geometric calculation based on the coordinates on the image and counting the number of persons staying in the section. Thereby, for example, the number of customers visiting the store in front of a specific product shelf can be grasped.

[効果等]
以上説明したように、本実施の形態によれば、監視カメラ30で撮影した動画像を用いて、撮影範囲45の領域における人物の滞留を、滞留度(スコアs)として数値化し、滞留箇所を検出することができ、店舗40の経営管理等に役立てることができる。例えば、店舗40内の商品等の配置構成に対応付けられた形で、滞留箇所(特定の区画、商品棚、商品など)を検出することができる。検出された滞留箇所は、人物が静止・滞留している時間が長い箇所、あるいは複数の人物が集まる箇所などである。よって例えば、来店客が気になって足を止めた箇所であったり、商品を探したり手に取ったり等した箇所であると推定できる。
[Effects]
As described above, according to the present embodiment, using the moving image captured by the surveillance camera 30, the retention of a person in the region of the imaging range 45 is quantified as the retention degree (score s), and the retention location is determined. It can be detected and can be used for business management of the store 40 or the like. For example, a stay location (a specific section, a product shelf, a product, or the like) can be detected in a form associated with the arrangement configuration of the product or the like in the store 40. The detected staying place is a place where a person is stationary or staying for a long time, or a place where a plurality of persons gather. Therefore, for example, it can be estimated that it is a place where a visitor is worried and stopped, or a place where a product is searched or picked up.

上記の滞留情報63を店舗40の経営管理に利用できる。例えば経営ノウハウ情報として、またPOSシステム等と連携した活用などができる。例えば、店舗40内の商品陳列や広告配置等の検討に役立ち、また、商品在庫・販売データ等と照らし合わせて、商品の仕入れなどに役立てることができる。   The staying information 63 can be used for business management of the store 40. For example, it can be used as management know-how information or in cooperation with a POS system. For example, it is useful for examination of product display and advertisement arrangement in the store 40, and can be used for purchase of products in comparison with product inventory / sales data.

他の実施の形態として以下が挙げられる。   Other embodiments include the following.

(1) 監視カメラサーバ20等で備える解析・検出機能によっては、動画像(フレーム領域)内における複数の各人物を区別・特定することができない場合(人物ごとの動線を把握できない場合)も考えられる。その場合でも、概略的に滞留度(不特定多数の単位での滞留度)を判定し滞留箇所を検出することができる。例えば動線情報が無くても、フレーム領域(背景領域など)と対応のマトリックスの要素(ブロックB)に対する対象物の重なりが検出できれば(例えば背景領域と対象物との画素情報の差分を判定する公知の方法などを利用してもよい)、概略的な滞留度・滞留箇所を計算できる。   (1) Depending on the analysis / detection function provided in the monitoring camera server 20 or the like, it may be impossible to distinguish / specify a plurality of persons in a moving image (frame area) (when it is impossible to grasp the flow line for each person). Conceivable. Even in such a case, it is possible to roughly determine the staying degree (staying degree in an unspecified number of units) and detect the staying place. For example, even if there is no flow line information, if the overlap of the object with respect to the frame area (background area, etc.) and the corresponding matrix element (block B) can be detected (for example, the difference in pixel information between the background area and the object is determined). A known method or the like may be used), and the approximate residence degree and residence location can be calculated.

(2) 監視カメラサーバ20等で備える機能に応じて、人物の現在位置の情報は、検出した顔の向きや視線の向きなどを考慮してその方向情報を持つようにしてもよい。例えば図3の311では商品棚E2(商品P2)の方向を向いている場合を示す。上記の方向情報を、滞留度・滞留箇所の判定に利用してもよい。例えば、人物現在位置にあたる要素(ブロックB)から、方向情報に対応した方向にある要素(ブロックB)の滞留度(スコアs)を所定の重み付けで高めるように計算する等。   (2) Depending on the function provided in the monitoring camera server 20 or the like, the information on the current position of the person may have the direction information in consideration of the detected face direction, the direction of the line of sight, and the like. For example, 311 in FIG. 3 shows a case where the product shelf E2 (product P2) is facing. You may utilize said direction information for determination of a staying degree and a staying location. For example, from the element corresponding to the person's current position (block B), calculation is performed so as to increase the staying degree (score s) of the element (block B) in the direction corresponding to the direction information with a predetermined weight.

(3) 前述した滞留(滞留度)の概念は、1人が静止する時間が長い場合だけでなく、複数人がそれぞれ通過する時間の累積による場合も含んでいる。例えば、店舗40内に第1の区画と第2の区画がある場合で、第1の区画では1人の来店客が長く滞留し、第2の区画では複数人の来店客がそれぞれ短い時間で通過したような場合が考えられる。そこで、両者を区別して判定する形態としてもよい。人物・動線の検出機能により人物を区別し、個々の人物単位で滞留度を計算し滞留箇所を検出する第1の方式と、複数人の累積の単位で滞留度を計算し滞留箇所を検出する第2の方式(前述した実施の形態)と、が可能である。第1の方式を用いた場合、例えば第1の区画での滞留度が高く、第2の区画での滞留度が低いと判定する。また、第2の方式を用いた場合、例えば第1の区画での滞留度及び第2の区画での滞留度の両方が高いと判定する。   (3) The concept of staying (staying degree) described above includes not only a case where one person is stationary, but also a case where a plurality of persons pass through each other. For example, in the case where there are a first section and a second section in the store 40, one store visitor stays long in the first section, and a plurality of store visitors stay in the second section in a short time. The case where it passed is considered. Therefore, it is possible to make a determination by distinguishing both. The first method that distinguishes people by the person / flow line detection function, calculates the staying degree for each person and detects the staying location, and calculates the staying degree by the cumulative unit of multiple people and detects the staying location The second method (the embodiment described above) is possible. When the first method is used, for example, it is determined that the staying degree in the first section is high and the staying degree in the second section is low. When the second method is used, for example, it is determined that both the staying degree in the first section and the staying degree in the second section are high.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

本発明は、監視カメラシステム、特に、店舗の経営管理等の目的での固定カメラシステム、公共交通における滞留(混雑)等を分析するシステム、等に利用できる。   INDUSTRIAL APPLICABILITY The present invention can be used for a surveillance camera system, in particular, a fixed camera system for the purpose of store management, a system for analyzing residence (congestion) in public transportation, and the like.

10…滞留検出システム、11…データ取得部(フレーム処理部)、12…滞留検出部、13…出力部、
20…監視カメラサーバ、21…監視カメラ制御部、22…画像解析部、23…動画像データ、24…解析情報、
30…監視カメラ、
40…店舗、45…撮影範囲、
60…フレームデータ、61…人物・動線情報、62…マトリックスデータ、63…検出結果(滞留情報)、102…人物・動線情報。
DESCRIPTION OF SYMBOLS 10 ... Residence detection system, 11 ... Data acquisition part (frame processing part), 12 ... Residence detection part, 13 ... Output part,
20 ... surveillance camera server, 21 ... surveillance camera control unit, 22 ... image analysis unit, 23 ... moving image data, 24 ... analysis information,
30 ... surveillance camera,
40 ... store, 45 ... shooting range,
60 ... frame data, 61 ... person / flow line information, 62 ... matrix data, 63 ... detection result (staying information), 102 ... person / flow line information.

Claims (9)

所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、前記撮影範囲の領域における対象物の滞留を検出するシステムであり、
前記固定カメラで撮影した検出対象とする動画像の解析処理により前記撮影範囲に対応したフレーム領域における対象物の位置の情報を取得する処理を行うデータ取得部と、
前記撮影範囲に対応したフレーム領域を複数のブロックに分割してなる複数の要素を持つマトリックスのデータを用いて、
前記フレーム領域における前記対象物の位置を前記マトリックス上のブロックにマッピングし、当該対象物の位置が重なるブロックに対応する要素ごとのスコアを記録する処理と、
前記マトリックスにおける前記スコアが高い要素を所定の閾値に基づき抽出する処理と、
前記スコアが高い要素に対応するブロックの情報を、滞留箇所の検出結果情報として出力する処理と、を行う滞留検出部と、を有すること、を特徴とする滞留検出システム。
Built-in or connected to a fixed camera system that includes a fixed camera that captures a predetermined imaging range, and is a system that detects retention of an object in the area of the imaging range,
A data acquisition unit that performs processing for acquiring information on the position of the object in a frame region corresponding to the imaging range by analysis processing of a moving image to be detected captured by the fixed camera;
Using matrix data having a plurality of elements obtained by dividing a frame region corresponding to the shooting range into a plurality of blocks,
A process of mapping the position of the object in the frame region to a block on the matrix and recording a score for each element corresponding to a block in which the position of the object overlaps;
A process of extracting elements having a high score in the matrix based on a predetermined threshold;
A stay detection system comprising: a stay detection unit that performs processing for outputting information on a block corresponding to an element having a high score as stay result detection result information.
所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、前記撮影範囲の領域における人物の滞留を検出するシステムであり、
前記固定カメラで撮影した検出対象とする動画像または静止画のフレームデータまたはその画像解析情報の少なくとも一方を取得し、前記フレームデータまたは画像解析情報をもとに、前記撮影範囲に対応したフレーム領域における人物またはその動線の情報を取得する処理を行うデータ取得部と、
前記撮影範囲に対応したフレーム領域を複数のブロックに分割してなる複数の要素を持つマトリックスのデータを用いて、
前記フレーム領域における前記人物またはその動線の情報を前記マトリックス上のブロックにマッピングし、当該人物またはその動線が重なるブロックに対応する要素ごとのスコアを記録する処理と、
前記マトリックスにおける前記スコアが高い要素を所定の閾値に基づき抽出する処理と、
前記スコアが高い要素に対応するブロックの情報を、滞留箇所の検出結果情報として出力する処理と、を行う滞留検出部と、を有すること、を特徴とする滞留検出システム。
Built-in or connected to a fixed camera system that includes a fixed camera that captures a predetermined shooting range, and is a system that detects stagnation of a person in the shooting range area,
A frame region corresponding to the imaging range is acquired based on the frame data or the image analysis information based on the frame data or the image analysis information obtained by acquiring at least one of moving image or still image frame data to be detected and captured by the fixed camera. A data acquisition unit that performs processing for acquiring information on the person or the flow line in
Using matrix data having a plurality of elements obtained by dividing a frame region corresponding to the shooting range into a plurality of blocks,
A process of mapping information on the person or the flow line thereof in the frame region to a block on the matrix and recording a score for each element corresponding to the block on which the person or the flow line overlaps;
A process of extracting elements having a high score in the matrix based on a predetermined threshold;
A stay detection system comprising: a stay detection unit that performs processing for outputting information on a block corresponding to an element having a high score as stay result detection result information.
請求項2に記載の滞留検出システムにおいて、
前記滞留検出部は、前記スコアを記録する処理において、前記フレーム領域における前記人物またはその動線の情報における当該人物の現在位置の座標を、前記マトリックス上のブロックにマッピングし、当該人物の現在位置の座標にあたる当該ブロックに対応する要素のスコアを、所定フレーム時間単位の経過ごとにカウントアップする処理を行うこと、を特徴とする滞留検出システム。
The residence detection system according to claim 2,
In the process of recording the score, the stay detection unit maps the coordinates of the current position of the person in the frame area or the flow line of the person to the block on the matrix, and maps the current position of the person. A dwell detection system characterized in that a process of counting up the score of an element corresponding to the block corresponding to the coordinates of each time is performed every elapse of a predetermined frame time unit.
請求項2に記載の滞留検出システムにおいて、
前記滞留検出部は、前記スコアを記録する処理において、前記人物またはその動線の情報を用いて、複数の人物の累積の単位で前記要素ごとのスコアをカウントアップし、前記抽出する処理において、前記複数の人物の累積のスコアが高い要素を抽出すること、を特徴とする滞留検出システム。
The residence detection system according to claim 2,
In the process of recording the score, the stay detection unit uses the information of the person or its flow line, counts up the score for each element in a cumulative unit of a plurality of persons, and in the process of extracting, A retention detection system, wherein an element having a high cumulative score of the plurality of persons is extracted.
請求項2に記載の滞留検出システムにおいて、
前記滞留検出部は、前記スコアを記録する処理において、前記人物またはその動線の情報を用いて、個別の人物の単位で前記要素ごとのスコアをカウントアップし、前記抽出する処理において、前記個別の人物ごとのスコアが高い要素を抽出すること、を特徴とする滞留検出システム。
The residence detection system according to claim 2,
In the process of recording the score, the stay detection unit counts up the score for each element in units of individual persons using the information of the person or its flow line, and in the process of extracting, the individual A retention detection system characterized by extracting an element having a high score for each person.
請求項2に記載の滞留検出システムにおいて、
前記滞留検出部は、前記抽出する処理の結果得られる情報として、複数の要素が存在する場合、クラスタリングによりクラスタ集合に分類する処理を行い、前記クラスタ集合の情報を滞留箇所の検出結果情報として出力すること、を特徴とする滞留検出システム。
The residence detection system according to claim 2,
When there are a plurality of elements as information obtained as a result of the extraction process, the stay detection unit performs a process of classifying the cluster set into a cluster set by clustering, and outputs the cluster set information as stay result detection result information. A dwell detection system characterized by that.
請求項2に記載の滞留検出システムにおいて、
前記滞留検出部は、前記抽出する処理の結果得られる情報に対して、滞留箇所を示す円の情報を作成して関連付ける処理を行い、前記滞留箇所を示す円の情報を前記滞留箇所の検出結果情報として出力すること、を特徴とする滞留検出システム。
The residence detection system according to claim 2,
The stay detection unit performs a process of creating and associating information on a circle indicating a stay location with respect to information obtained as a result of the extracting process, and detecting the information on the circle indicating the stay location as a detection result of the stay location. A dwell detection system characterized by outputting as information.
請求項2に記載の滞留検出システムにおいて、
前記撮影範囲における店舗内の空間的な配置の構成と、前記マトリックスの複数のブロックの構成と、が対応付けられて設定されることにより、前記滞留箇所は、前記店舗内の特定の箇所に対応付けられたブロックとして検出されること、を特徴とする滞留検出システム。
The residence detection system according to claim 2,
The staying location corresponds to a specific location in the store by setting the configuration of the spatial arrangement in the store in the shooting range and the configuration of the plurality of blocks of the matrix in association with each other. A dwell detection system characterized by being detected as an attached block.
所定の撮影範囲を撮影する固定カメラを含む固定カメラシステムに内蔵または接続され、前記撮影範囲の領域における対象物の滞留を検出するシステムとしてコンピュータを機能させるプログラムであり、
前記固定カメラで撮影した検出対象とする動画像の解析処理により前記撮影範囲に対応したフレーム領域における対象物の位置の情報を取得する処理を行うステップと、
前記撮影範囲に対応したフレーム領域を複数のブロックに分割してなる複数の要素を持つマトリックスのデータを用いて、
前記フレーム領域における前記対象物の位置を前記マトリックス上のブロックにマッピングし、当該対象物の位置が重なるブロックに対応する要素ごとのスコアを記録する処理を行うステップと、
前記マトリックスにおける前記スコアが高い要素を所定の閾値に基づき抽出する処理を行うステップと、
前記スコアが高い要素に対応するブロックの情報を、滞留箇所の検出結果情報として出力する処理を行うステップと、を実行すること、を特徴とする滞留検出プログラム。
A program that is built in or connected to a fixed camera system including a fixed camera that captures a predetermined imaging range, and that causes the computer to function as a system that detects retention of an object in the area of the imaging range,
Performing a process of acquiring information on a position of an object in a frame region corresponding to the imaging range by an analysis process of a moving image to be detected captured by the fixed camera;
Using matrix data having a plurality of elements obtained by dividing a frame region corresponding to the shooting range into a plurality of blocks,
Mapping the position of the object in the frame region to a block on the matrix and recording a score for each element corresponding to the block where the position of the object overlaps; and
Performing a process of extracting an element having a high score in the matrix based on a predetermined threshold;
And a step of outputting a block corresponding to an element having a high score as detection result information of the staying portion.
JP2010124226A 2010-05-31 2010-05-31 Residence detection system and program Pending JP2011248836A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010124226A JP2011248836A (en) 2010-05-31 2010-05-31 Residence detection system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010124226A JP2011248836A (en) 2010-05-31 2010-05-31 Residence detection system and program

Publications (1)

Publication Number Publication Date
JP2011248836A true JP2011248836A (en) 2011-12-08

Family

ID=45413972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010124226A Pending JP2011248836A (en) 2010-05-31 2010-05-31 Residence detection system and program

Country Status (1)

Country Link
JP (1) JP2011248836A (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013228956A (en) * 2012-04-26 2013-11-07 Toshiba Teli Corp Thronging monitoring device and thronging monitoring program
JP2014215679A (en) * 2013-04-23 2014-11-17 日本電気株式会社 Image processing system, image processing method, and program
JPWO2013057904A1 (en) * 2011-10-19 2015-04-02 パナソニックIpマネジメント株式会社 Collection determination device and collection determination method
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method
JP2015069279A (en) * 2013-09-27 2015-04-13 パナソニックIpマネジメント株式会社 Staying time measuring apparatus, staying time measuring system and staying time measuring method
JP5720843B1 (en) * 2014-09-22 2015-05-20 富士ゼロックス株式会社 Position conversion program and information processing apparatus
JP2015133093A (en) * 2014-01-14 2015-07-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America display method, stay information display system, and display control unit
JP2016024492A (en) * 2014-07-16 2016-02-08 パナソニックIpマネジメント株式会社 Facility use state measurement apparatus, facility use state measurement system and facility use state measurement method
JP5899506B1 (en) * 2015-03-04 2016-04-06 三郎 山内 Monitoring system, monitoring method, program, and computer storage medium
EP3009958A1 (en) 2014-10-08 2016-04-20 Panasonic Intellectual Property Management Co., Ltd. Activity situation analysis apparatus, activity situation analysis system, and activity situation analysis method
WO2016059740A1 (en) * 2014-10-17 2016-04-21 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system, and monitoring method
EP3073436A4 (en) * 2013-11-20 2016-11-09 Panasonic Ip Man Co Ltd Person movement analysis device, person movement analysis system, and person movement analysis method
JP2016207193A (en) * 2015-12-07 2016-12-08 パナソニックIpマネジメント株式会社 Traffic line analysis system and traffic line analysis method
JP2017041869A (en) * 2015-08-20 2017-02-23 株式会社東芝 Image processing system, image processing method, and program
JP2017162432A (en) * 2016-03-07 2017-09-14 株式会社リコー Image processing system, information processing apparatus, information terminal, and program
WO2017170084A1 (en) * 2016-03-31 2017-10-05 日本電気株式会社 Flow line display system, flow line display method, and program recording medium
US9852345B2 (en) 2013-12-27 2017-12-26 Panasonic Intellectual Property Management Co., Ltd. Activity map creating device, activity map creating system, and activity map creating method
WO2018131485A1 (en) * 2017-01-13 2018-07-19 キヤノン株式会社 People flow analysis device and method thereof
US10235574B2 (en) 2015-03-19 2019-03-19 Panasonic Intellectual Property Management Co., Ltd. Image-capturing device, recording device, and video output control device
CN110530381A (en) * 2018-05-23 2019-12-03 腾讯大地通途(北京)科技有限公司 Map Up-to-date state detection method, device and storage medium based on navigation data
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
US10567677B2 (en) 2015-04-17 2020-02-18 Panasonic I-Pro Sensing Solutions Co., Ltd. Flow line analysis system and flow line analysis method
US10621423B2 (en) 2015-12-24 2020-04-14 Panasonic I-Pro Sensing Solutions Co., Ltd. Moving information analyzing system and moving information analyzing method
US10789484B2 (en) 2016-03-07 2020-09-29 Nec Corporation Crowd type classification system, crowd type classification method and storage medium for storing crowd type classification program
JP7050356B1 (en) 2020-12-09 2022-04-08 国立大学法人九州大学 People flow evaluation device, people flow evaluation method, and people flow evaluation program
JP2022140867A (en) * 2021-03-15 2022-09-29 三菱電機インフォメーションシステムズ株式会社 Detecting device, detecting method and detection program
JP7285999B1 (en) * 2022-12-28 2023-06-02 セーフィー株式会社 Information processing system, information processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265830A (en) * 2008-04-23 2009-11-12 Toshiba Corp In-store behavior analyzing device and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265830A (en) * 2008-04-23 2009-11-12 Toshiba Corp In-store behavior analyzing device and method

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013057904A1 (en) * 2011-10-19 2015-04-02 パナソニックIpマネジメント株式会社 Collection determination device and collection determination method
US9165195B2 (en) 2011-10-19 2015-10-20 Panasonic Intellectual Property Management Co., Ltd. Thronging determination device and thronging determination method
JP2013228956A (en) * 2012-04-26 2013-11-07 Toshiba Teli Corp Thronging monitoring device and thronging monitoring program
JP2014215679A (en) * 2013-04-23 2014-11-17 日本電気株式会社 Image processing system, image processing method, and program
JP2015069279A (en) * 2013-09-27 2015-04-13 パナソニックIpマネジメント株式会社 Staying time measuring apparatus, staying time measuring system and staying time measuring method
EP3073436A4 (en) * 2013-11-20 2016-11-09 Panasonic Ip Man Co Ltd Person movement analysis device, person movement analysis system, and person movement analysis method
US10121160B2 (en) 2013-11-20 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Person movement analysis device, person movement analysis system, and person movement analysis method
US9852345B2 (en) 2013-12-27 2017-12-26 Panasonic Intellectual Property Management Co., Ltd. Activity map creating device, activity map creating system, and activity map creating method
JP2019053762A (en) * 2014-01-14 2019-04-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Display method
JP2015133093A (en) * 2014-01-14 2015-07-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America display method, stay information display system, and display control unit
JP2015069639A (en) * 2014-04-28 2015-04-13 パナソニックIpマネジメント株式会社 Stay-time measurement apparatus,stay-time measurement system and stay-time measurement method
JP2016024492A (en) * 2014-07-16 2016-02-08 パナソニックIpマネジメント株式会社 Facility use state measurement apparatus, facility use state measurement system and facility use state measurement method
JP5720843B1 (en) * 2014-09-22 2015-05-20 富士ゼロックス株式会社 Position conversion program and information processing apparatus
US9851784B2 (en) 2014-09-22 2017-12-26 Fuji Xerox Co., Ltd. Movement line conversion and analysis system, method and program
JP2016062542A (en) * 2014-09-22 2016-04-25 富士ゼロックス株式会社 Position conversion program and information processing device
EP3009958A1 (en) 2014-10-08 2016-04-20 Panasonic Intellectual Property Management Co., Ltd. Activity situation analysis apparatus, activity situation analysis system, and activity situation analysis method
US10607240B2 (en) 2014-10-08 2020-03-31 Panasonic Intellectual Property Management Co., Ltd. Activity situation analysis apparatus, activity situation analysis system, and activity situation analysis method
US9794508B2 (en) 2014-10-17 2017-10-17 Panasonic Intellectual Property Management Co., Ltd. Monitoring device, monitoring system, and monitoring method
CN105723703B (en) * 2014-10-17 2019-12-17 松下知识产权经营株式会社 Monitoring device, monitoring system and monitoring method
JP2016082431A (en) * 2014-10-17 2016-05-16 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method
CN105723703A (en) * 2014-10-17 2016-06-29 松下知识产权经营株式会社 Monitoring device, monitoring system, and monitoring method
WO2016059740A1 (en) * 2014-10-17 2016-04-21 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system, and monitoring method
GB2535091B (en) * 2014-10-17 2020-08-05 Panasonic Ip Man Co Ltd Monitoring device, monitoring system, and monitoring method
GB2535091A (en) * 2014-10-17 2016-08-10 Panasonic Ip Man Co Ltd Monitoring device, monitoring system, and monitoring method
JP5899506B1 (en) * 2015-03-04 2016-04-06 三郎 山内 Monitoring system, monitoring method, program, and computer storage medium
JP2016163254A (en) * 2015-03-04 2016-09-05 三郎 山内 Monitor system, monitoring method, program, and computer storage medium
US10235574B2 (en) 2015-03-19 2019-03-19 Panasonic Intellectual Property Management Co., Ltd. Image-capturing device, recording device, and video output control device
US10602080B2 (en) 2015-04-17 2020-03-24 Panasonic I-Pro Sensing Solutions Co., Ltd. Flow line analysis system and flow line analysis method
US10567677B2 (en) 2015-04-17 2020-02-18 Panasonic I-Pro Sensing Solutions Co., Ltd. Flow line analysis system and flow line analysis method
JP2017041869A (en) * 2015-08-20 2017-02-23 株式会社東芝 Image processing system, image processing method, and program
JP2016207193A (en) * 2015-12-07 2016-12-08 パナソニックIpマネジメント株式会社 Traffic line analysis system and traffic line analysis method
US10621423B2 (en) 2015-12-24 2020-04-14 Panasonic I-Pro Sensing Solutions Co., Ltd. Moving information analyzing system and moving information analyzing method
US10956722B2 (en) 2015-12-24 2021-03-23 Panasonic I-Pro Sensing Solutions Co., Ltd. Moving information analyzing system and moving information analyzing method
US10789484B2 (en) 2016-03-07 2020-09-29 Nec Corporation Crowd type classification system, crowd type classification method and storage medium for storing crowd type classification program
US10885350B2 (en) 2016-03-07 2021-01-05 Nec Corporation Crowd type classification system, crowd type classification method and storage medium for storing crowd type classification program
US11727578B2 (en) 2016-03-07 2023-08-15 Nec Corporation Crowd type classification system, crowd type classification method and storage medium for storing crowd type classification program
JP2017162432A (en) * 2016-03-07 2017-09-14 株式会社リコー Image processing system, information processing apparatus, information terminal, and program
US10891493B2 (en) 2016-03-07 2021-01-12 Nec Corporation Crowd type classification system, crowd type classification method and storage medium for storing crowd type classification program
US10740934B2 (en) 2016-03-31 2020-08-11 Nec Corporation Flow line display system, flow line display method, and program recording medium
US11276210B2 (en) 2016-03-31 2022-03-15 Nec Corporation Flow line display system, flow line display method, and program recording medium
WO2017170084A1 (en) * 2016-03-31 2017-10-05 日本電気株式会社 Flow line display system, flow line display method, and program recording medium
JP7131587B2 (en) 2016-03-31 2022-09-06 日本電気株式会社 Information processing system, information processing device, information processing method and program
JP2021002840A (en) * 2016-03-31 2021-01-07 日本電気株式会社 Information processing system, information processor, information processing method and program
JPWO2017170084A1 (en) * 2016-03-31 2019-01-10 日本電気株式会社 Flow line display system, flow line display method, and flow line display program
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
US11341669B2 (en) 2017-01-13 2022-05-24 Canon Kabushiki Kaisha People flow analysis apparatus, people flow analysis system, people flow analysis method, and non-transitory computer readable medium
JP2018116692A (en) * 2017-01-13 2018-07-26 キヤノン株式会社 Human flow analysis apparatus and system
JP7130368B2 (en) 2017-01-13 2022-09-05 キヤノン株式会社 Information processing device and information processing system
WO2018131485A1 (en) * 2017-01-13 2018-07-19 キヤノン株式会社 People flow analysis device and method thereof
CN110530381A (en) * 2018-05-23 2019-12-03 腾讯大地通途(北京)科技有限公司 Map Up-to-date state detection method, device and storage medium based on navigation data
JP7050356B1 (en) 2020-12-09 2022-04-08 国立大学法人九州大学 People flow evaluation device, people flow evaluation method, and people flow evaluation program
JP2022091544A (en) * 2020-12-09 2022-06-21 国立大学法人九州大学 Flow-of-people evaluation device, flow-of-people evaluation method, and flow-of-people evaluation program
JP2022140867A (en) * 2021-03-15 2022-09-29 三菱電機インフォメーションシステムズ株式会社 Detecting device, detecting method and detection program
JP7157838B2 (en) 2021-03-15 2022-10-20 三菱電機インフォメーションシステムズ株式会社 Detection device, detection method and detection program
JP7285999B1 (en) * 2022-12-28 2023-06-02 セーフィー株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2011248836A (en) Residence detection system and program
US9124778B1 (en) Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
JP4876687B2 (en) Attention level measuring device and attention level measuring system
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
US9858474B2 (en) Object tracking and best shot detection system
JP2018093283A (en) Monitoring information gathering system
JP5597781B1 (en) Residence status analysis apparatus, residence status analysis system, and residence status analysis method
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
WO2014050518A1 (en) Information processing device, information processing method, and information processing program
US20180115749A1 (en) Surveillance system and surveillance method
JP5731766B2 (en) Loss opportunity analysis system and analysis method
JP2012235415A (en) Image processing system, febrile person identifying method, image processing apparatus, and control method and program thereof
WO2015040929A1 (en) Image processing system, image processing method, and program
WO2014093209A1 (en) Security video system using customer regions for monitoring point of sale areas
JP2017046196A (en) Image information generating apparatus, image information generating method, image processing system, and program
US11666247B2 (en) Method, device and computer program for capturing optical image data of patient surroundings and for identifying a patient check-up
JP2024041796A (en) information processing equipment
JP6206627B1 (en) Information processing apparatus, control method, and program
Ezatzadeh et al. Fall detection for elderly in assisted environments: Video surveillance systems and challenges
JP2017211731A (en) Head-count counting system, head-count counting method, and head-count counting result browsing method
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
CN111753587B (en) Ground falling detection method and device
JP2016219065A (en) Staying analysis system and method
JP2010009444A (en) Merchandise interest degree measuring apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140819