JP2020102135A - Tracking system, tracking processing method, and program - Google Patents

Tracking system, tracking processing method, and program Download PDF

Info

Publication number
JP2020102135A
JP2020102135A JP2018241441A JP2018241441A JP2020102135A JP 2020102135 A JP2020102135 A JP 2020102135A JP 2018241441 A JP2018241441 A JP 2018241441A JP 2018241441 A JP2018241441 A JP 2018241441A JP 2020102135 A JP2020102135 A JP 2020102135A
Authority
JP
Japan
Prior art keywords
detection
tracking information
information
type
facility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018241441A
Other languages
Japanese (ja)
Inventor
元明 山崎
Motoaki Yamazaki
元明 山崎
白石 理人
Masato Shiraishi
理人 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2018241441A priority Critical patent/JP2020102135A/en
Publication of JP2020102135A publication Critical patent/JP2020102135A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable an object in a facility to be tracked while taking privacy into account.SOLUTION: A tracking system is constituted by comprising: a first object detection unit for generating first object tracking information based on the result of detection of an object based on the detection information of an object detection sensor provided in correspondence to a divided area of type 1 among divided areas in a facility and detection of the position of the detected object; a second object detection unit for detecting an object in a divided area of type 2 among the divided areas in the facility on the basis of an image recognition process that utilizes an imaged image obtained by an imaging device provided in correspondence to the divided area of type 2, and generating second object tracking information based on the detection result; and an object management unit for associating the first and second object tracking information of the same object having moved a boundary between the divided areas of type 1 and type 2 with each other.SELECTED DRAWING: Figure 11

Description

本発明は、追跡システム、追跡処理方法、及びプログラムに関する。 The present invention relates to a tracking system, a tracking processing method, and a program.

複数のカメラごとの撮像画像を利用して施設内に滞在する人物をリアルタイムに監視可能な技術が知られている(例えば、特許文献1参照)。 There is known a technique capable of monitoring a person staying in a facility in real time by using captured images of a plurality of cameras (for example, refer to Patent Document 1).

特開2018−85597号公報JP, 2018-85597, A

各種用途の施設を運用するにあたり、施設利用者の移動を追跡して、施設における動線把握、位置情報取得、所在把握などを行いたいという要望がある。例えばオフィスビルの従業員の現在位置把握また動線把握や、ショッピングモール等のように客が大きく移動する商業施設における警備やマーケティング等のための動線把握などの例を挙げることができる。このような施設利用者の移動追跡は、例えば監視カメラなどの撮像装置を多数設置することで実現可能である。
しかしながら施設によっては、テナントオフィスビルやテナント店舗が入居するショッピングモールなどのように、エリアが専有部と共用部とに分かれ、プライバシー保護や警備等の管理、運用が専有部と共用部とで異なる場合がある。例えば、専有部では施設利用者のプライバシーが重視されるため、監視カメラを取付けることが好ましくなく、一方、共用部では施設利用者の安全確保の観点から監視カメラ(即ち、撮像装置)の設置が好まれるという事例を挙げることができる。このような場合、撮像装置により施設全体における施設利用者の追跡を行うことは、個人を特定できてしまうため、特に専有部では好ましくないという側面がある。
In operating a facility for various purposes, there is a demand to track the movement of the facility user to grasp the flow line in the facility, acquire position information, and grasp the whereabouts. For example, examples include grasping the current position of an employee in an office building, grasping the flow line, and grasping the flow line for security and marketing in a commercial facility such as a shopping mall where customers move widely. Such movement tracking of facility users can be realized by installing a large number of imaging devices such as surveillance cameras.
However, depending on the facility, the area is divided into a private part and a common part, such as a tenant office building or a shopping mall in which a tenant store is located, and the management and operation of privacy protection and security etc. are different between the private part and the common part. There are cases. For example, it is not preferable to install a surveillance camera in the private part because the privacy of the facility user is important, while in the common part, the surveillance camera (that is, the imaging device) should be installed from the viewpoint of ensuring the safety of the facility user. We can mention the case of being liked. In such a case, it is not preferable to track the facility users in the entire facility by the image capturing device, because it is possible to identify an individual, and it is not preferable especially in the exclusive section.

本発明は、このような事情に鑑みてなされたもので、プライバシーを考慮しつつ、施設における対象の追跡を可能とすることを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to enable tracking of an object in a facility while considering privacy.

上述した課題を解決する本発明の一態様は、施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1の対象物追跡情報を生成する第1対象物検出部と、施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出部と、前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理部とを備える追跡システムである。 One aspect of the present invention for solving the above-described problem is detection of an object based on detection information of an object detection sensor provided corresponding to a first-type divided area among divided areas in a facility and the detected object. The first object detection unit that generates the first object tracking information based on the result of the detection of the position and the image pickup device that is provided corresponding to the second type of divided area among the divided areas in the facility. A second object detection unit that detects an object in the second type of segmented area based on image recognition processing using the captured image, and generates second object tracking information based on the detection result; An object management unit that associates the first object tracking information and the second object tracking information of the same object that has moved the boundary between the first type of segmented area and the second type of segmented area. It is a tracking system.

また、本発明の一態様は、施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1の対象物追跡情報を生成する第1対象物検出ステップと、施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出ステップと、前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理ステップとを備える追跡処理方法である。 Further, according to one embodiment of the present invention, detection of an object and detection of a position of the detected object based on detection information of an object detection sensor which is provided corresponding to a first-type divided area among divided areas in a facility. A first object detection step of generating first object tracking information based on the result of the above, and a captured image obtained by an imaging device provided corresponding to a second type of divided area among the divided areas in the facility. A second target object detection step of detecting a target object in the second type of segmented area based on image recognition processing utilizing, and generating second target object tracking information based on the detection result; A tracking processing method comprising: an object management step of associating the first object tracking information and the second object tracking information of the same object that has moved a boundary between the divided area and the second type of divided area. is there.

また、本発明の一態様は、追跡システムにおいて備えられるコンピュータを、上記の各部として機能させるためのプログラムである。 Further, one aspect of the present invention is a program for causing a computer provided in a tracking system to function as each of the above units.

以上説明したように、本発明によれば、プライバシーを考慮しつつ、施設における対象の追跡が可能になるという効果が得られる。 As described above, according to the present invention, it is possible to obtain the effect that the target can be traced in the facility while considering privacy.

本実施形態における追跡システムの全体的な構成例を示す図である。It is a figure which shows the example of the whole structure of the tracking system in this embodiment. 本実施形態における撮像対応追跡サーバの構成例を示す図である。It is a figure which shows the structural example of the imaging correspondence tracking server in this embodiment. 本実施形態における第2対象物追跡情報の一例を示す図である。It is a figure which shows an example of the 2nd target object tracking information in this embodiment. 本実施形態における物体検出センサ対応追跡サーバの構成例を示す図である。It is a figure which shows the structural example of the tracking server corresponding to an object detection sensor in this embodiment. 本実施形態における第1対象物追跡情報の一例を示す図である。It is a figure which shows an example of the 1st target object tracking information in this embodiment. 本実施形態における統合追跡サーバの構成例を示す図である。It is a figure which shows the structural example of the integrated tracking server in this embodiment. 本実施形態における共通対象物情報の一例を示す図である。It is a figure which shows an example of the common target object information in this embodiment. 本実施形態における施設管理サーバの構成例を示す図である。It is a figure which shows the structural example of the facility management server in this embodiment. 本実施形態における撮像対応追跡サーバが、1つの共用部に対応する施設利用者の追跡に対応して実行する処理手順例を示すフローチャートである。It is a flow chart which shows an example of a processing procedure which an image pick-up correspondence pursuit server in this embodiment performs corresponding to pursuit of a facility user corresponding to one common part. 本実施形態における物体検出センサ対応追跡サーバが実行する処理手順例を示すフローチャートである。It is a flow chart which shows an example of a processing procedure which a tracking server corresponding to an object detection sensor in this embodiment performs. 本実施形態における統合追跡サーバが実行する処理手順例を示すフローチャートである。It is a flowchart which shows the example of a processing procedure which the integrated tracking server in this embodiment performs.

図1は、本実施形態の追跡システムの全体的な構成例を示している。同図の追跡システムは、施設FACにおいて移動する施設利用者を個別に特定しながら追跡する。
同図においては、施設FAC内の区分エリアのうち、或る2つの共用部PAR−1、PAR−2(第2種別の区分エリアの一例)と或る1つの専有部TAR(第1種別の区分エリアの一例)が示されている。専有部TARは、共用部PAR−1、PAR−2のそれぞれと隣接している。
以降の説明にあたり、共用部PAR−1、PAR−2について特に区別しない場合には、共用部PARと記載する。
以降においては、共用部PARが2つ、専有部TARが1つの場合を例に挙げて説明するが、施設FACにおける共用部PARと専有部TARとの数は特に限定されるものではなく、適宜必要数が設けられてよい。
FIG. 1 shows an example of the overall configuration of the tracking system of this embodiment. The tracking system shown in the figure tracks the facility users who individually move in the facility FAC.
In the figure, among the divided areas in the facility FAC, there are two common areas PAR-1, PAR-2 (an example of the second type of divided areas) and a certain exclusive area TAR (of the first type). An example of a section area) is shown. The exclusive part TAR is adjacent to each of the common parts PAR-1 and PAR-2.
In the following description, common parts PAR-1 and PAR-2 will be referred to as common parts PAR unless otherwise specified.
In the following, a case where there are two shared parts PAR and one dedicated part TAR will be described as an example, but the number of shared parts PAR and dedicated parts TAR in the facility FAC is not particularly limited, and is appropriately set. The required number may be provided.

また、同図では、共用部PAR−1に撮像装置10−1が設けられ、共用部PAR−2に撮像装置10−2が設けられた例が示されている。
以降の説明にあたり、撮像装置10−1、撮像装置10−2を含め、共用部PARに設けられる撮像装置について特に区別しない場合には、撮像装置10と記載する。
撮像装置には、例えば監視カメラやWEBカメラといったものを使用できる。
Further, in the figure, an example is shown in which the image capturing device 10-1 is provided in the shared portion PAR-1 and the image capturing device 10-2 is provided in the shared portion PAR-2.
In the following description, the imaging devices provided in the common part PAR, including the imaging device 10-1 and the imaging device 10-2, will be referred to as the imaging device 10 unless otherwise specified.
As the image pickup device, for example, a surveillance camera or a WEB camera can be used.

撮像装置10−1は、共用部PAR−1内の所定範囲による場所を撮像するように設けられることで、所定の範囲に存在する施設利用者を撮像する。同図では、共用部PAR−1において1つの撮像装置10−1が示されているが、共用部PAR−1においては、撮像装置10−1を含め、それぞれ異なる場所を撮像するように複数の撮像装置10が設けられてよい。具体例として、共用部PAR−1が通路である場合には、通路の延伸方向に沿って、或る間隔で通路内の所定範囲の空間を撮像するように複数の撮像装置10が設けられてよい。また、複数の撮像装置10の数やそれぞれの設置場所、撮像する範囲については、共用部PARの広さや遮蔽物の設置状況等に応じて適宜変更されてよい。
また、撮像装置10−2は、共用部PAR−2内の所定範囲による場所を撮像するように設けられることで、所定の範囲に存在する施設利用者を撮像する。共用部PAR−2に関しても、撮像装置10−2を含め、それぞれ異なる場所を撮像するように複数の撮像装置10が設けられてよい。
撮像装置10のそれぞれにより得られた撮像画像の情報は、撮像対応追跡サーバ100に送信される。つまり、撮像対応追跡サーバ100には、複数の撮像装置にて得られた撮像画像の情報が集約される。
The image pickup apparatus 10-1 is provided so as to pick up an image of a place within a predetermined range in the shared portion PAR-1, and thus picks up an image of a facility user existing in the predetermined range. Although one imaging device 10-1 is shown in the shared portion PAR-1 in the figure, the shared portion PAR-1 includes a plurality of imaging devices 10-1 so as to capture images at different places. The imaging device 10 may be provided. As a specific example, when the shared portion PAR-1 is a passage, a plurality of image pickup devices 10 are provided so as to pick up images of a predetermined range of space in the passage at certain intervals along the extending direction of the passage. Good. Further, the number of the plurality of image pickup devices 10, the respective installation locations, and the image pickup ranges may be appropriately changed according to the size of the common part PAR, the installation state of the shield, and the like.
In addition, the imaging device 10-2 is provided so as to image a place within a predetermined range in the shared portion PAR-2, and thus images the facility user existing in the predetermined range. Also for the shared portion PAR-2, a plurality of image pickup devices 10 may be provided so as to pick up images of different places including the image pickup device 10-2.
Information on the captured image obtained by each of the image capturing apparatuses 10 is transmitted to the image capturing support tracking server 100. That is, the information of the captured images obtained by the plurality of image capturing devices is collected in the image capturing correspondence tracking server 100.

専有部TARにおいては、物体検出センサ20が設けられる。物体検出センサ20は、例えば、LiDAR(light detection and ranging)の技術を用いたセンサであってよい。LiDARは、センサから照射されたレーザ光が物体にて反射して戻ってくるまでの時間に基づいて物体を検出する技術である。 An object detection sensor 20 is provided in the exclusive portion TAR. The object detection sensor 20 may be, for example, a sensor using a LiDAR (light detection and ranging) technique. LiDAR is a technique for detecting an object based on the time until the laser light emitted from the sensor is reflected by the object and returns.

なお、同図では、専有部TARにおいて、2つの物体検出センサ20が設けられた例が示されているが、専有部TARに設けられる物体検出センサ20の数や、物体検出センサ20の配置位置等は、例えば専有部TARの広さや遮蔽物の設置状況等に応じて定められればよい。
物体検出センサ20が物体検出を行って得られた物体検出情報は、物体検出対応追跡サーバ200に送信される。つまり、物体検出対応追跡サーバ200には、複数の物体検出センサ20により得られた物体検出情報が集約される。
It should be noted that, in the same figure, an example in which two object detection sensors 20 are provided in the exclusive portion TAR is shown, but the number of object detection sensors 20 provided in the exclusive portion TAR and the arrangement position of the object detection sensors 20 are shown. Etc. may be determined according to, for example, the size of the exclusive part TAR and the installation status of the shield.
Object detection information obtained by the object detection sensor 20 performing object detection is transmitted to the object detection correspondence tracking server 200. That is, the object detection correspondence tracking server 200 collects the object detection information obtained by the plurality of object detection sensors 20.

上記のように、撮像装置10により共用部PARを撮像して得られた撮像画像は、撮像対応追跡サーバ100に送信される。撮像対応追跡サーバ100では、撮像装置10から送信された撮像画像について画像認識処理を行うことで、撮像画像から人を抽出し、抽出された人の顔、衣類等の特徴量に基づいて個人認識を行う。このような個人認識では、共用部PARにて、人が移動している状態であっても、特徴量に基づいて、移動前と移動後とで同一の個人であることを検出できる。撮像対応追跡サーバ100は、このように施設利用者について個人認識した結果に基づいて、施設利用者を追跡の対象物とする追跡情報(第2対象物追跡情報)を生成する。第2対象物追跡情報に基づいて、撮像対応追跡サーバ100では、共用部PARにて検出される施設利用者について個々に追跡を行うことができる。
また、本実施形態では、撮像装置10ごとの撮像範囲がそれぞれ異なることに基づき、撮像範囲に対応する精度で追跡対象の施設利用者の位置を認識することができる。あるいは、撮像装置10により撮像して得られる撮像画像内の座標と、撮像される共用部PARの場所における位置(座標)とを対応付けたテーブルを参照することで、追跡対象の施設利用者の共用部PAR内の位置座標が認識されるようにしてよい。後述するが、このような位置座標の情報が第2対象物追跡情報に含められてよい。
撮像対応追跡サーバ100は、生成された第2対象物追跡情報を記憶する。また、撮像対応追跡サーバ100は、記憶された第2対象物追跡情報を統合追跡サーバ300に送信する。
また、撮像対応追跡サーバ100は、撮像装置10から送信された撮像画像も記憶してよい。
As described above, the picked-up image obtained by picking up the image of the shared portion PAR by the image pickup apparatus 10 is transmitted to the image pickup-capable tracking server 100. The image capturing correspondence tracking server 100 performs image recognition processing on the captured image transmitted from the image capturing apparatus 10 to extract a person from the captured image and perform personal recognition based on the extracted feature amount of the face, clothing, etc. of the person. I do. In such personal recognition, even when a person is moving, the common part PAR can detect that the person is the same before and after the movement based on the feature amount. The imaging-compatible tracking server 100 generates tracking information (second object tracking information) with the facility user as a tracking target based on the result of individual recognition of the facility user in this way. Based on the second object tracking information, the imaging-compatible tracking server 100 can individually track the facility users detected in the shared part PAR.
Further, in the present embodiment, the position of the facility user to be tracked can be recognized with accuracy corresponding to the imaging range based on the fact that the imaging ranges of the imaging devices 10 are different. Alternatively, by referring to a table in which the coordinates (coordinates) in the location of the shared portion PAR to be imaged are associated with each other in the imaged image obtained by imaging with the imaging device 10, the facility user of the tracking target is identified. The position coordinates in the shared portion PAR may be recognized. As will be described later, such position coordinate information may be included in the second object tracking information.
The imaging-compatible tracking server 100 stores the generated second object tracking information. Further, the imaging-compatible tracking server 100 transmits the stored second object tracking information to the integrated tracking server 300.
The imaging-capable tracking server 100 may also store the captured image transmitted from the imaging device 10.

また、物体検出センサ20により得られた物体検出情報は、物体検出対応追跡サーバ200に送信される。物体検出対応追跡サーバ200は、物体検出センサ20から送信された物体検出情報により検出された物体について形状認識を行う。物体検出対応追跡サーバ200は、形状認識結果に基づいて、専有部TARにおいて存在する物体のうちから人を弁別して検出するとともに、認識された形状の特徴に応じて、検出された人のそれぞれを個別に認識することができる。物体検出対応追跡サーバ200は、このように認識される人を専有部TAR内の施設利用者として扱う。
また、物体検出対応追跡サーバ200は、物体検出情報に基づいて、物体検出センサ20を起点とする専有部TARにおいて存在する物体が位置する方向と、物体検出センサ20から物体までの距離とを検出できる。このような物体の方向と位置とに基づいては、物体の位置を座標として特定することができる。つまり、物体検出対応追跡サーバ200は、専有部TARにおける物体の位置座標を検出する。また、物体検出情報により検出された物体が移動している場合、物体検出対応追跡サーバ200は、移動前と移動後との物体の形状の特徴量の一致や、移動前と移動後とで検出される物体の位置座標の相関に基づき、物体の追跡が可能である。つまり、物体検出対応追跡サーバ200は、専有部TARにて検出される施設利用者ごとの位置に基づいて、個々の施設利用者の追跡を行うことができる。
物体検出対応追跡サーバ200は、生成された第1対象物追跡情報を記憶する。また、物体検出対応追跡サーバ200は、記憶された第1対象物追跡情報を統合追跡サーバ300に送信する。また、物体検出対応追跡サーバ200は、物体検出センサ20をもとに構成されるセンサ検知画像も記憶してよい。
Further, the object detection information obtained by the object detection sensor 20 is transmitted to the object detection correspondence tracking server 200. The object detection correspondence tracking server 200 performs shape recognition on the object detected by the object detection information transmitted from the object detection sensor 20. The object detection correspondence tracking server 200 discriminates and detects a person from the objects existing in the exclusive portion TAR based on the shape recognition result, and detects each of the detected persons according to the characteristic of the recognized shape. Can be individually recognized. The object detection correspondence tracking server 200 treats the person recognized in this way as a facility user in the exclusive section TAR.
Further, the object detection correspondence tracking server 200 detects, based on the object detection information, the direction in which the object existing in the exclusive portion TAR starting from the object detection sensor 20 is located and the distance from the object detection sensor 20 to the object. it can. Based on such a direction and position of the object, the position of the object can be specified as coordinates. That is, the object detection correspondence tracking server 200 detects the position coordinates of the object in the exclusive portion TAR. Further, when the object detected by the object detection information is moving, the object detection correspondence tracking server 200 detects that the feature amount of the shape of the object before and after the movement matches or before and after the movement. The object can be tracked based on the correlation of the position coordinates of the object. That is, the object detection correspondence tracking server 200 can track each facility user based on the position of each facility user detected by the exclusive unit TAR.
The object detection correspondence tracking server 200 stores the generated first object tracking information. Further, the object detection correspondence tracking server 200 transmits the stored first object tracking information to the integrated tracking server 300. The object detection-corresponding tracking server 200 may also store a sensor detection image formed based on the object detection sensor 20.

統合追跡サーバ300は、撮像対応追跡サーバ100から受信した第2対象物追跡情報と、物体検出対応追跡サーバ200から受信した第1対象物追跡情報とを利用して、施設FAC内にて、共用部PARと専有部TARとの間を移動する状況にも対応して、施設利用者ごとの追跡が可能なように情報管理を行う。 The integrated tracking server 300 uses the second object tracking information received from the imaging compatible tracking server 100 and the first object tracking information received from the object detection compatible tracking server 200 and shared in the facility FAC. Information management is performed so that it can be tracked for each facility user in response to the situation of moving between the department PAR and the exclusive department TAR.

上記説明から理解されるように、本実施形態では、共用部PARにおいては撮像装置10が出力する撮像画像に基づく個人認識によって施設利用者の追跡が行われるので、共用部PARにおいては、検出される施設利用者について、個人が特定されることになる。
一方、専有部TARにおいては、光技術による物体検出情報に基づいて人の追跡が行われる。物体検出情報に基づく人の検出では、例えば人としての形状は認識されるが、人の顔や服装等の特徴量までは認識されない。このため、専有部TARにおいては、検出される施設利用者について、個々に弁別はできるが、個人の特定までは行われない。
例えばテナントオフィスビルやテナント店舗などの事例でわかるように、一般的に、専有部TARでは、共用部PARよりも施設利用者のプライバシーが重視される傾向にある。このため、専有部TARに関しては、施設利用者を追跡するにあたり個人が特定されることは好ましくないという考え方を採ることができる。
一方で、共用部PARは、専有部TARよりも公共性が高く、また防犯等を考慮しても、プライバシーの重要性は低くてもよい、という考え方を採ることができる。従って、共用部PARにおいては、施設利用者を追跡するにあたり、個人が特定されることについては許容されてよい、という考え方を採ることができる。
本実施形態の構成であれば、上記の考え方に沿って、共用部PARにおいては施設利用者について個人が特定可能とされ、専有部TARにおいては施設利用者について個人は特定されないようにして情報を管理運用することで、施設FACにおける施設利用者のプライバシーを適切に管理できる。
As can be understood from the above description, in the present embodiment, the facility user is tracked by the individual recognition based on the captured image output by the imaging device 10 in the common area PAR, so that the common area PAR is detected. Individuals will be identified for each facility user.
On the other hand, in the exclusive unit TAR, a person is tracked based on the object detection information by the optical technique. In the detection of a person based on the object detection information, for example, the shape of a person is recognized, but feature amounts such as a person's face and clothes are not recognized. For this reason, in the exclusive department TAR, the detected facility users can be individually discriminated, but they are not identified.
For example, as can be seen in the case of a tenant office building or a tenant store, generally, in the private part TAR, the privacy of the facility user tends to be more important than in the common part PAR. Therefore, with respect to the exclusive department TAR, it is possible to take the idea that it is not preferable to identify an individual when tracing the facility user.
On the other hand, the common part PAR can be considered to be more public than the exclusive part TAR, and the importance of privacy may be low in consideration of crime prevention and the like. Therefore, in the common area PAR, when tracing the facility users, it is possible to allow the individual to be specified.
According to the configuration of the present embodiment, in accordance with the above concept, it is possible to identify the individual facility user in the common area PAR, and the individual information in the exclusive portion TAR so that the individual person is not identified. By managing and operating, the privacy of the facility user in the facility FAC can be appropriately managed.

また、図1においては、施設利用者PS−1が共用部PAR−1から専有部TARに移動しようとする状態が示されている。また、同図においては、施設利用者PS−2が専有部TARから共用部PAR−2に移動しようとする状態が示されている。つまり、施設利用者PS−1、PS−2は、共用部PARと専有部TARとの間の境界を移動しようとする施設利用者である。以降の説明において、施設利用者PS−1、PS−2について特に区別しない場合には、施設利用者PSと記載する。 Further, FIG. 1 shows a state in which the facility user PS-1 tries to move from the common area PAR-1 to the exclusive area TAR. Also, in the figure, a state is shown in which the facility user PS-2 is about to move from the exclusive section TAR to the common section PAR-2. That is, the facility users PS-1 and PS-2 are facility users who are going to move along the boundary between the shared part PAR and the proprietary part TAR. In the following description, facility users PS-1 and PS-2 will be referred to as facility users PS unless otherwise specified.

施設利用者PS−1が、共用部PAR−1から専有部TARに移動することに応じて、施設利用者PS−1としての個人は、共用部PAR−1において検出されなくなる。一方で、専有部TARにおいて施設利用者PS−1が検出され、追跡が開始されることになる。
共用部PARと専有部TARとでは、それぞれが異なる手法により施設利用者の追跡を行っている。特に、専有部TARにおける施設利用者の追跡にあたっては、施設利用者としての個人は特定されない。このため、特に対応を図らなければ、施設利用者PSが共用部PARと専有部TARとの間の境界を移動したタイミングで、境界を移動する前に検出されていた施設利用者PSと、境界を移動した後に検出された施設利用者PSとの一致を確認することができない。
そこで、本実施形態においては、施設利用者PSが共用部PARと専有部TARとの間の境界を移動した場合に対応して、統合追跡サーバ300により、移動前の施設利用者PSの追跡の状況を示す追跡情報と、移動後の施設利用者PSの追跡の状況を示す追跡情報との対応付けが行われるように構成される。これにより、共用部PARと専有部TARとの間での施設利用者の移動にも対応して、施設FACにおける施設利用者の追跡を行うことができる。
As the facility user PS-1 moves from the shared portion PAR-1 to the exclusive portion TAR, the individual as the facility user PS-1 is no longer detected in the shared portion PAR-1. On the other hand, the facility user PS-1 is detected in the exclusive section TAR, and tracking is started.
The shared part PAR and the exclusive part TAR track the facility users by different methods. In particular, in tracking the facility user in the exclusive department TAR, the individual as the facility user is not specified. Therefore, if no special measures are taken, at the timing when the facility user PS moves the boundary between the shared part PAR and the exclusive part TAR, the facility user PS detected before moving the boundary and the boundary It is not possible to confirm the agreement with the facility user PS detected after moving to.
Therefore, in the present embodiment, in response to the case where the facility user PS moves along the boundary between the shared part PAR and the exclusive part TAR, the integrated tracking server 300 tracks the facility user PS before the move. The tracking information indicating the status and the tracking information indicating the tracking status of the facility user PS after the movement are associated with each other. As a result, it is possible to track the facility user in the facility FAC in response to the movement of the facility user between the shared part PAR and the exclusive part TAR.

また、同図においては、施設管理サーバ400が示されている。施設管理サーバ400は、施設FACに対応する管理を行うサーバである。施設管理サーバ400は、施設FACに備えられる各種の設備500の動作を制御する。同図に示される設備500の具体例については特に限定されない。例えば、設備500としては空調機器、照明機器、デジタルサイネージとしての表示装置、エレベータやエスカレータ設備等が含まれてよい。
また、施設管理サーバ400は、現在における施設利用者の追跡状況や、施設利用者の追跡状況の履歴等に基づいて、施設FAC内の設備500を制御することができる。この点については後述する。
Further, the facility management server 400 is shown in FIG. The facility management server 400 is a server that performs management corresponding to the facility FAC. The facility management server 400 controls the operation of various facilities 500 provided in the facility FAC. The specific example of the equipment 500 shown in the figure is not particularly limited. For example, the facility 500 may include an air conditioner, a lighting device, a display device as a digital signage, an elevator or an escalator facility, and the like.
Further, the facility management server 400 can control the facility 500 in the facility FAC based on the current tracking status of the facility user, the history of the tracking status of the facility user, and the like. This point will be described later.

図2は、撮像対応追跡サーバ100の構成例を示している。同図の撮像対応追跡サーバ100は、通信部101、制御部102、及び記憶部103を備える。
通信部101は、撮像装置10や統合追跡サーバ300と通信を行う。
制御部102は、撮像対応追跡サーバ100における制御を実行する。制御部102としての機能は、撮像対応追跡サーバ100が備えるCPU(Central Processing Unit)がプログラムを実行することによって実現される。制御部102は、第2対象物検出部121を備える。
FIG. 2 shows an example of the configuration of the imaging-compatible tracking server 100. The imaging-compatible tracking server 100 in the figure includes a communication unit 101, a control unit 102, and a storage unit 103.
The communication unit 101 communicates with the imaging device 10 and the integrated tracking server 300.
The control unit 102 executes control in the imaging-compatible tracking server 100. The function as the control unit 102 is realized by a CPU (Central Processing Unit) included in the imaging-compatible tracking server 100 executing a program. The control unit 102 includes a second object detection unit 121.

第2対象物検出部121は、共用部PARに対応して設けられる撮像装置10から得られた撮像画像を利用した画像認識処理に基づいて、共用部PARにおける施設利用者の検出を行う。画像認識処理によっては、施設利用者ごとに個人認識が行われる。
また、第2対象物検出部121は、認識された個人の共用部PAR内での位置座標を推定(検出)することができる。例えば、第2対象物検出部121は、画像認識処理によって、画像上で写っている個人の位置に基づき、共用部PAR内での個人の位置座標を推定することができる。あるいは、撮像装置10の設置された共用部PAR内での座標が既知であるので、個人の位置座標を、撮像装置10の座標付近として推定することもできる。
従って、第2対象物検出部121は、施設利用者ごとの個人認識結果に基づいて、共用部PARにおける施設利用者ごとの追跡を行うことができる。
The second object detection unit 121 detects the facility user in the common area PAR based on the image recognition process using the captured image obtained from the imaging device 10 provided corresponding to the common area PAR. Depending on the image recognition processing, individual recognition is performed for each facility user.
In addition, the second object detection unit 121 can estimate (detect) the position coordinates of the recognized individual in the shared portion PAR. For example, the second object detection unit 121 can estimate the position coordinate of the individual in the shared portion PAR based on the position of the individual shown in the image by the image recognition processing. Alternatively, since the coordinates in the shared part PAR in which the image pickup apparatus 10 is installed are known, the position coordinates of the individual can be estimated as the vicinity of the coordinates of the image pickup apparatus 10.
Therefore, the 2nd target object detection part 121 can track for every facility user in the common part PAR based on the individual recognition result for every facility user.

第2対象物検出部121は、先の時刻にて検出されたのと同じ施設利用者が次の時刻においても検出された場合には、同じ施設利用者を示す第2対象物識別子と次の時刻を示すタイムスタンプとを格納する第2対象物追跡情報を生成する。そして、第2対象物検出部121は、生成された第2対象物追跡情報を、第2対象物追跡情報記憶部131に記憶する。このように記憶される第2対象物追跡情報によっては、共用部PARにおいて移動する施設利用者が個人として認識されている。つまり、共用部PARにおける施設利用者については、個人を認識していることにより追跡が実現されている。 When the same facility user that was detected at the previous time is also detected at the next time, the second target object detection unit 121 and the second target object identifier indicating the same facility user and the next Second object tracking information storing a time stamp indicating a time is generated. Then, the second object detection unit 121 stores the generated second object tracking information in the second object tracking information storage unit 131. According to the second object tracking information stored in this way, the facility user moving in the common area PAR is recognized as an individual. That is, the facility user in the common area PAR can be tracked by recognizing the individual.

記憶部103は、撮像対応追跡サーバ100に対応する各種の情報を記憶する。記憶部103は、第2対象物追跡情報記憶部131を備える。
第2対象物追跡情報記憶部131は、第2対象物追跡情報を記憶する。第2対象物追跡情報は、共用部PARにおいて検出された施設利用者についての情報である。
図3は、第2対象物追跡情報記憶部131が例えばデータベース形式で記憶する第2対象物追跡情報の一例を示している。同図における1レコードの第2対象物追跡情報は、1の施設利用者についての或る1の時刻に対応する情報となる。
The storage unit 103 stores various kinds of information corresponding to the imaging correspondence tracking server 100. The storage unit 103 includes a second object tracking information storage unit 131.
The second target tracking information storage unit 131 stores the second target tracking information. The second object tracking information is information about the facility user detected in the common area PAR.
FIG. 3 shows an example of the second object tracking information stored in the second object tracking information storage unit 131 in a database format, for example. The second object tracking information of one record in the figure is information corresponding to a certain time of one facility user.

1つの第2対象物追跡情報は、撮像装置識別子、第2対象物識別子、タイムスタンプ、推定位置座標、及び特徴量データの領域を含む。
撮像装置識別子の領域は、検出された施設利用者を検出した撮像装置10を示す撮像装置識別子を格納する。同図では、撮像装置10−1(図1)の撮像装置識別子として「10−1」を格納した例が示されている。
前述のように、複数の撮像装置10は、共用部PARにおいてそれぞれ異なる所定の場所を撮像するように設けられる。従って、撮像装置10を一意に示す撮像装置識別子によっては、対応の共用部PARにおける所定の場所が特定可能となる。つまり、撮像装置識別子は、対応の撮像装置10の撮像範囲に対応する共用部PARの所定の場所を示す位置情報として機能する。
第2対象物識別子の領域は、共用部PARにて検出された検出対象としての施設利用者に付与される第2対象物識別子を格納する。撮像装置10による施設利用者の検出では、個人が認識される。このため、第2対象物識別子は、認識された個人ごとに一意となるように施設利用者ごとに付与されるものであってよい。
タイムスタンプの領域は、施設利用者が検出された時刻を示すタイムスタンプを格納する。
推定位置座標の領域は、前述のようにして撮像画像に基づいて施設利用者(認識された個人)について推定された、共用部PAR内の位置座標が格納される。同図では、推定位置座標として、x軸方向、y軸方向及びz軸方向による三次元座標として表された例が示される。
特徴量データの領域は、検出対象としての施設利用者について、画像認識によって抽出された特徴量を示すデータ(特徴量データ)を格納する。特徴量データによっては、個人が識別可能とされる。
One piece of second object tracking information includes a region of the image pickup device identifier, the second object identifier, the time stamp, the estimated position coordinate, and the feature amount data.
The area of the imaging device identifier stores the imaging device identifier indicating the imaging device 10 that has detected the detected facility user. In the figure, an example is shown in which "10-1" is stored as the imaging device identifier of the imaging device 10-1 (FIG. 1).
As described above, the plurality of image pickup devices 10 are provided so as to pick up images at different predetermined locations in the common part PAR. Therefore, depending on the image pickup device identifier that uniquely indicates the image pickup device 10, it is possible to specify a predetermined place in the corresponding shared portion PAR. That is, the image pickup device identifier functions as position information indicating a predetermined location of the shared portion PAR corresponding to the image pickup range of the corresponding image pickup device 10.
The area of the second target object identifier stores the second target object identifier given to the facility user as the detection target detected by the shared portion PAR. An individual is recognized when the facility user is detected by the imaging device 10. Therefore, the second object identifier may be assigned to each facility user so as to be unique to each recognized individual.
The time stamp area stores a time stamp indicating the time when the facility user is detected.
In the area of the estimated position coordinate, the position coordinate in the shared part PAR estimated for the facility user (recognized individual) based on the captured image as described above is stored. In the figure, an example is shown in which the estimated position coordinates are expressed as three-dimensional coordinates in the x-axis direction, the y-axis direction, and the z-axis direction.
The area of the feature amount data stores data (feature amount data) indicating the feature amount extracted by image recognition for the facility user as the detection target. Individuals can be identified depending on the feature amount data.

なお、上記の例では、共用部PARにおける施設利用者の個人認識は、撮像画像の解析によって行われているが、例えば、共用部PARにおいて設けられる入退出設備の出入口に設けられる社員証等のICカード対応のカードリーダにより読み取られた、施設利用者個人に関する情報に基づいて行われてもよい。この場合、推定位置座標は、共用部PARにおいてカードリーダが設置された位置に基づいて推定されてよい。例えば、この場合の施設利用者の位置は、カードリーダが設置された位置と近似的に同じであるとして扱える。そこで、推定位置座標は、例えばカードリーダが設置された位置に基づいて予め定められた位置の座標とされてよい。この場合、推定位置座標は、一点としての座標を示してもよいし、ある程度の空間としての広さを有する座標範囲を示してもよい。 In the above example, the individual recognition of the facility user in the common area PAR is performed by analyzing the captured image. However, for example, the employee ID etc. provided at the entrance/exit of the entrance/exit facility provided in the common area PAR It may be performed based on the information about the individual facility user, which is read by a card reader compatible with an IC card. In this case, the estimated position coordinates may be estimated based on the position where the card reader is installed in the shared part PAR. For example, the position of the facility user in this case can be treated as being approximately the same as the position where the card reader is installed. Therefore, the estimated position coordinates may be, for example, the coordinates of a predetermined position based on the position where the card reader is installed. In this case, the estimated position coordinate may indicate the coordinate as one point, or may indicate the coordinate range having a certain extent of space.

図4は、物体検出対応追跡サーバ200の構成例を示している。同図の物体検出対応追跡サーバ200は、通信部201、制御部202、及び記憶部203を備える。
通信部201は、物体検出センサ20や統合追跡サーバ300と通信を行う。
制御部202は、物体検出対応追跡サーバ200における制御を実行する。制御部202としての機能は、物体検出対応追跡サーバ200が備えるCPUがプログラムを実行することによって実現される。制御部202は、第1対象物検出部221を備える。
第1対象物検出部221は、専有部TARに対応して設けられる物体検出センサ20によって得られる物体検出結果を利用して、専有部TARにおける施設利用者(対象物の一例)の検出と、検出された施設利用者の位置としての座標の検出とを行う。つまり、第1対象物検出部221は、専有部TARにおける施設利用者ごとの移動に対応して追跡を行うことができる。
また、第1対象物検出部221は、検出された施設利用者について認識された形状に基づいて、検出された施設利用者の属性を判定してもよい。
例えば、第1対象物検出部221は、検出された施設利用者について認識された形状に基づき、身長を推定する。推定された身長に応じて、第1対象物検出部221は、検出された施設利用者が「成人」の属性である、あるいは「子供」であるといったように判定してよい。
また、第1対象物検出部221は、認識された形状に基づき、施設利用者について、「ベビーカーをひいている」、「車いすに乗っている」、「倒れている」といった属性を判定するようにしてもよい。また、第1対象物検出部221は、複数人で一緒に行動している施設利用者のグループを認識し、グループについての認識結果を属性情報に含めてよい。このような属性の判定は、例えば機械学習により実現するようにされてよい。
FIG. 4 shows an example of the configuration of the object detection compatible tracking server 200. The object detection correspondence tracking server 200 in the figure includes a communication unit 201, a control unit 202, and a storage unit 203.
The communication unit 201 communicates with the object detection sensor 20 and the integrated tracking server 300.
The control unit 202 executes control in the object detection correspondence tracking server 200. The function as the control unit 202 is realized by the CPU included in the object detection compatible tracking server 200 executing a program. The control unit 202 includes a first object detection unit 221.
The first object detection unit 221 uses the object detection result obtained by the object detection sensor 20 provided corresponding to the exclusive unit TAR to detect a facility user (an example of an object) in the exclusive unit TAR, Coordinates as the detected position of the facility user are detected. That is, the first target detection unit 221 can perform tracking in accordance with the movement of each facility user in the exclusive unit TAR.
In addition, the first object detection unit 221 may determine the attribute of the detected facility user based on the recognized shape of the detected facility user.
For example, the first target object detection unit 221 estimates the height based on the shape recognized for the detected facility user. Depending on the estimated height, the first object detection unit 221 may determine that the detected facility user has the attribute of “adult” or “child”.
In addition, the first object detection unit 221 determines the attributes such as “in a stroller”, “in a wheelchair”, and “falling down” for the facility user based on the recognized shape. You may In addition, the first object detection unit 221 may recognize a group of facility users who are acting together by a plurality of people, and may include the recognition result of the group in the attribute information. The determination of such an attribute may be realized by machine learning, for example.

記憶部203は、物体検出対応追跡サーバ200に対応する各種の情報を記憶する。記憶部203は、第1対象物追跡情報記憶部231を備える。
第1対象物追跡情報記憶部231は、第1対象物追跡情報を記憶する。第1対象物追跡情報は、専有部TARにおいて検出された追跡対象の施設利用者についての情報である。
The storage unit 203 stores various kinds of information corresponding to the object detection correspondence tracking server 200. The storage unit 203 includes a first object tracking information storage unit 231.
The first target object tracking information storage unit 231 stores the first target object tracking information. The first target object tracking information is information about the facility user of the tracking target detected by the exclusive unit TAR.

図5は、第1対象物追跡情報記憶部231が例えばデータベース形式で記憶する第1対象物追跡情報の一例を示している。同図における1レコードの第1対象物追跡情報は、1の施設利用者についての或る1の時刻に対応する情報となる。
1つの第1対象物追跡情報は、検出装置識別子、第1対象物識別子、タイムスタンプ、対象物位置情報、及び属性情報の領域を含む。
検出装置識別子の領域は、検出された施設利用者を検出した物体検出センサ20を示す検出装置識別子を格納する。同図では、物体検出センサ20−1(図1)の検出装置識別子として「20−1」を格納した例が示されている。
例えば、検出装置識別子により、対応の専有部TARが特定可能となる。また、専有部TARに複数の物体検出センサ20が設けられる場合には、検出装置識別子により、専有部TARにおいて対応するエリア部分が特定可能となる。
第1対象物識別子の領域は、専有部TARにて検出された検出対象としての施設利用者に付与される第1対象物識別子を格納する。物体検出センサ20による施設利用者の検出では、個人が認識されないので、第1対象物識別子は、例えば、物体検出対応追跡サーバ200にて検出が開始された順に応じた通し番号等であってよい。
タイムスタンプの領域は、施設利用者が検出された時刻(タイムスタンプ)を格納する。
対象物位置情報の領域は、対応のタイムスタンプが示す時刻において検出された施設利用者の位置を座標により示す情報である、対象物位置情報を格納する。同図において、座標は、x軸方向、y軸方向及びz軸方向による三次元座標として表された例が示される。
属性情報の領域は、検出された施設利用者について第1対象物検出部221により判定された属性を示す属性情報を格納する。
FIG. 5 shows an example of the first object tracking information stored in the first object tracking information storage unit 231 in a database format, for example. The first object tracking information of one record in the figure is information corresponding to a certain time for one facility user.
One piece of first object tracking information includes a detection device identifier, a first object identifier, a time stamp, object position information, and an area of attribute information.
The detection device identifier area stores a detection device identifier indicating the object detection sensor 20 that has detected the detected facility user. In the figure, an example in which “20-1” is stored as the detection device identifier of the object detection sensor 20-1 (FIG. 1) is shown.
For example, the corresponding exclusive unit TAR can be identified by the detection device identifier. When a plurality of object detection sensors 20 are provided in the exclusive portion TAR, the corresponding area portion in the exclusive portion TAR can be specified by the detection device identifier.
The area of the first target object identifier stores the first target object identifier given to the facility user as a detection target detected by the exclusive unit TAR. Since the individual is not recognized in the detection of the facility user by the object detection sensor 20, the first object identifier may be, for example, a serial number or the like according to the order in which the detection by the object detection tracking server 200 is started.
The time stamp area stores the time when the facility user was detected (time stamp).
The area of the object position information stores the object position information, which is information indicating the position of the facility user detected at the time indicated by the corresponding time stamp by coordinates. In the figure, an example is shown in which the coordinates are expressed as three-dimensional coordinates in the x-axis direction, the y-axis direction, and the z-axis direction.
The attribute information area stores attribute information indicating the attribute determined by the first object detection unit 221 for the detected facility user.

例えば、同図に示される第1対象物識別子「23869」の施設利用者が、次の時刻においても検出された場合には、新たに同じ第1対象物識別子「23869」の施設利用者の第1対象物追跡情報が生成され、第1対象物追跡情報記憶部231に記憶される。このように記憶される第1対象物追跡情報においては、「タイムスタンプ」の値が、現時刻に対応して更新されている。また、第1対象物検出部221は、検出される施設利用者に変化が生じたことに応じて、施設利用者についてこれまでと異なる属性であると判定結果を変更する場合がある。このような場合、第1対象物検出部221は、変更された属性が示されるように属性情報を更新してよい。なお属性情報を更新する場合も、取得された元データも保存し、履歴を後から振り返ることも可能である。
このように時刻ごとに対応して専有部TARの施設利用者が検出されるごとに第1対象物追跡情報が生成され、第1対象物追跡情報記憶部231に記憶されていく。このように記憶される第1対象物追跡情報のうち、同じ第1対象物識別子を格納する複数の第1対象物追跡情報によっては、タイムスタンプにより示される時刻ごとの専有部TARにおける施設利用者の位置が示されることになる。つまり、第1対象物追跡情報により専有部TARにおける施設利用者の移動軌跡が示されるものであり、専有部TARにおける施設利用者の追跡が実現されている。
For example, when the facility user with the first object identifier “23869” shown in the figure is detected at the next time as well, the facility user with the same first object identifier “23869” is newly added. One target tracking information is generated and stored in the first target tracking information storage unit 231. In the first object tracking information stored in this way, the value of "time stamp" is updated corresponding to the current time. In addition, the first object detection unit 221 may change the determination result that the facility user has a different attribute from the previous one in response to a change in the detected facility user. In such a case, the first target object detection unit 221 may update the attribute information so that the changed attribute is indicated. Even when the attribute information is updated, the acquired original data can be saved and the history can be reviewed later.
As described above, the first object tracking information is generated and stored in the first object tracking information storage unit 231 every time the facility user of the exclusive unit TAR is detected corresponding to each time. Among the first object tracking information stored in this way, depending on the plurality of first object tracking information storing the same first object identifier, the facility user in the exclusive section TAR for each time indicated by the time stamp Position will be indicated. That is, the first object tracking information indicates the movement trajectory of the facility user in the exclusive unit TAR, and the tracking of the facility user in the exclusive unit TAR is realized.

図6を参照して、統合追跡サーバ300の構成例について説明する。同図の統合追跡サーバ300は、通信部301、制御部302、及び記憶部303を備える。
通信部201は、物体検出センサ20や統合追跡サーバ300と通信を行う。
制御部202は、物体検出対応追跡サーバ200における制御を実行する。制御部202としての機能は、物体検出対応追跡サーバ200が備えるCPUがプログラムを実行することによって実現される。制御部202は、対象物管理部321を備える。
対象物管理部321は、専有部TARと共用部PARとの境界を移動した共通の施設利用者についての第1対象物追跡情報と第2対象物追跡情報とを、後述のようにして対応付ける。
A configuration example of the integrated tracking server 300 will be described with reference to FIG. The integrated tracking server 300 shown in the figure includes a communication unit 301, a control unit 302, and a storage unit 303.
The communication unit 201 communicates with the object detection sensor 20 and the integrated tracking server 300.
The control unit 202 executes control in the object detection correspondence tracking server 200. The function as the control unit 202 is realized by the CPU included in the object detection compatible tracking server 200 executing a program. The control unit 202 includes an object management unit 321.
The target object management unit 321 associates the first target object tracking information and the second target object tracking information regarding the common facility user who has moved the boundary between the exclusive unit TAR and the common unit PAR as described below.

記憶部303は統合追跡サーバ300に対応する各種の情報を記憶する。記憶部303において、共通対象物情報記憶部331は、例えばデータベース形式で共通対象物情報を記憶する。共通対象物情報は、同じ施設利用者についての第1対象物識別子と第2対象物識別子とを対応付けた情報である。
図7は、共通対象物情報記憶部331が記憶する共通対象物情報の一例を示している。同図における1レコードが、施設利用者の共用部PARと専有部TARとの間の1回の移動に対応する共通対象物情報である。同図の共通対象物情報は、図4に示される第1対象物識別子「23869」の施設利用者と、図5に示される第2対象物識別子「U123456」の施設利用者とが同じ(共通)である場合の例を示している。
同図の共通対象物情報は、共通対象物識別子、第1対象物識別子、第2対象物識別子、及び対応確認タイムスタンプの領域を含む。
共通対象物識別子の領域は、対応の1の施設利用者に付与された第1対象物識別子と第2対象物識別子との双方に対応するものとして付与された共通対象物識別子を格納する。
第1対象物識別子の領域は、対応の1の施設利用者に付与された第1対象物識別子を格納する。
第2対象物識別子の領域は、対応の1の施設利用者に付与された第2対象物識別子を格納する。
対応確認タイムスタンプの領域は、対応の共通対象物情報が生成された時刻を格納する。本実施形態において、1の施設利用者に対応する共通対象物情報は、対応の施設利用者が共用部PARと専有部TARとの間を移動するごとに、統合追跡サーバ300の対象物管理部321によって新たに生成され、共通対象物情報記憶部331に記憶されていく。対応確認タイムスタンプは、このように対応の施設利用者が共用部PARと専有部TARとの間を移動することに応じて、対応の共通対象物情報が生成された時刻を示す。
The storage unit 303 stores various kinds of information corresponding to the integrated tracking server 300. In the storage unit 303, the common object information storage unit 331 stores the common object information in a database format, for example. The common object information is information in which the first object identifier and the second object identifier for the same facility user are associated with each other.
FIG. 7 shows an example of common object information stored in the common object information storage unit 331. One record in the figure is common object information corresponding to one movement between the common part PAR and the exclusive part TAR of the facility user. In the common object information of the figure, the facility user of the first object identifier “23869” shown in FIG. 4 and the facility user of the second object identifier “U123456” shown in FIG. 5 are the same (common ) Is shown as an example.
The common object information in the figure includes areas of a common object identifier, a first object identifier, a second object identifier, and a correspondence confirmation time stamp.
The area of the common object identifier stores the common object identifier assigned as corresponding to both the first object identifier and the second object identifier given to the corresponding one facility user.
The area of the first object identifier stores the first object identifier assigned to the corresponding one facility user.
The area of the second object identifier stores the second object identifier given to the corresponding one facility user.
The area of the correspondence confirmation time stamp stores the time when the corresponding common object information is generated. In the present embodiment, the common object information corresponding to one facility user is the object management unit of the integrated tracking server 300 every time the corresponding facility user moves between the shared section PAR and the exclusive section TAR. It is newly generated by 321 and is stored in the common object information storage unit 331. The correspondence confirmation time stamp indicates the time when the corresponding common object information is generated in response to the corresponding facility user moving between the shared portion PAR and the exclusive portion TAR.

図8を参照して、施設管理サーバ400の構成例について説明する。施設管理サーバ400は、通信部401、制御部402、及び記憶部403を備える。
通信部401は、統合追跡サーバ300や、施設FACにおいて制御対象となる設備500と通信を行う。
制御部402は、施設管理サーバ400における各種の制御を実行する。制御部402としての機能は、施設管理サーバ400が備えるCPUがプログラムを実行することにより実現される。制御部402は、設備制御部421を備える。設備制御部421は、施設FACにおいて設けられる設備500を制御する。
記憶部403は、施設管理サーバ400に関連する各種の情報を記憶する。
A configuration example of the facility management server 400 will be described with reference to FIG. 8. The facility management server 400 includes a communication unit 401, a control unit 402, and a storage unit 403.
The communication unit 401 communicates with the integrated tracking server 300 and the facility 500 to be controlled in the facility FAC.
The control unit 402 executes various controls in the facility management server 400. The function as the control unit 402 is realized by the CPU of the facility management server 400 executing a program. The control unit 402 includes an equipment control unit 421. The equipment control unit 421 controls the equipment 500 provided in the facility FAC.
The storage unit 403 stores various information related to the facility management server 400.

図9のフローチャートを参照して、本実施形態の撮像対応追跡サーバ100が、或る共用部PARにおける1つの撮像装置10の撮像画像に基づく施設利用者の追跡に対応して実行する処理手順例について説明する。
ステップS101:撮像対応追跡サーバ100において、第2対象物検出部121は、共用部PARに設けられた撮像装置10の撮像画像について画像認識を行うことで個人(施設利用者)の検出を行っている。そのうえで、第2対象物検出部121は、施設利用者の検出が開始されたか否かについて判定している。例えば、或る施設利用者が、他の場所から対応の共用部PAR内の場所に移動してくると、第2対象物検出部121は施設利用者の検出を開始することになる。
With reference to the flowchart of FIG. 9, an example of a processing procedure executed by the imaging-compatible tracking server 100 according to the present embodiment in association with the tracking of the facility user based on the imaged image of one imaging device 10 in a certain shared part PAR. Will be described.
Step S101: In the imaging-compatible tracking server 100, the second object detection unit 121 detects an individual (facility user) by performing image recognition on the imaged image of the imaging device 10 provided in the shared portion PAR. There is. Then, the second target object detection unit 121 determines whether or not the detection of the facility user has started. For example, when a certain facility user moves from another place to a place in the corresponding shared portion PAR, the second object detection unit 121 starts detecting the facility user.

ステップS102:ステップS101にて施設利用者の検出が開始されたことに応じて、検出が開始された施設利用者についての画像認識処理によって、特徴量データが得られる。そこで、第2対象物検出部121は、今回得られたのと同じ特徴量データを格納する第2対象物追跡情報(同一施設利用者(対象物)の第2対象物追跡情報)が第2対象物追跡情報記憶部131において、既に記憶されているか否かについて判定する。このため、第2対象物検出部121は、第2対象物追跡情報記憶部131から同一施設利用者の第2対象物追跡情報を検索する。 Step S102: In response to the start of the detection of the facility user in step S101, the feature amount data is obtained by the image recognition process for the facility user whose detection is started. Therefore, the second object detection unit 121 stores the second object tracking information (the second object tracking information of the same facility user (object)) that stores the same feature amount data obtained this time as the second object tracking information. In the object tracking information storage unit 131, it is determined whether or not it has already been stored. Therefore, the second target object detection unit 121 searches the second target object tracking information storage unit 131 for the second target object tracking information of the same facility user.

ステップS103:ステップS102にて同一施設利用者の第2対象物追跡情報が第2対象物追跡情報記憶部131に記憶されていると判定された場合、今回検出された施設利用者は、今回検出されるより前において、対応の共用部PAR内の場所に存在していたことがある施設利用者である。
この場合の第2対象物検出部121は、ステップS102での判定処理に際して検索された同一施設利用者の第2対象物追跡情報に格納されていた第2対象物識別子を取得する。取得された第2対象物識別子は、今回の検出開始に応じて生成する第2対象物追跡情報に格納すべき第2対象物識別子である。
Step S103: When it is determined in step S102 that the second object tracking information of the same facility user is stored in the second object tracking information storage unit 131, the facility user detected this time is detected this time. A facility user who has existed at a place in the corresponding shared area PAR before being performed.
In this case, the second target object detection unit 121 acquires the second target object identifier stored in the second target object tracking information of the same facility user searched in the determination process in step S102. The acquired second target object identifier is the second target object identifier that should be stored in the second target object tracking information generated in response to the current start of detection.

ステップS104:ステップS102にて、同一施設利用者の第2対象物追跡情報が第2対象物追跡情報記憶部131に未だ記憶されていないと判定された場合、検出が開始された施設利用者は、対応の共用部PAR内の場所に今回はじめて移動してきたことになる。
そこで、第2対象物検出部121は、検出が開始された施設利用者を示す第2対象物識別子を新規に発行する。
Step S104: When it is determined in step S102 that the second object tracking information of the same facility user is not yet stored in the second object tracking information storage unit 131, the facility user who has started the detection is This is the first time we have moved to the corresponding shared area PAR.
Therefore, the second target object detection unit 121 newly issues a second target object identifier indicating the facility user whose detection has been started.

ステップS105:第2対象物検出部121は、検出が開始された施設利用者に対応する第2対象物追跡情報の生成を開始する。第2対象物検出部121は、以降において、一定の時間間隔ごとに第2対象物追跡情報を生成し、第2対象物追跡情報記憶部131に記憶させる。
第2対象物検出部121は、ステップS103の処理を経てステップS105の処理を実行する場合、以降において生成する第2対象物追跡情報に、ステップS103にて取得された第2対象物識別子を格納する。また、第2対象物検出部121は、ステップS104の処理を経てステップS105の処理を実行する場合、以降において生成する第2対象物追跡情報に、ステップS104にて発行した第2対象物識別子を格納する。
Step S105: The second object detection unit 121 starts generation of second object tracking information corresponding to the facility user whose detection has been started. After that, the second object detection unit 121 generates the second object tracking information at regular time intervals and stores the second object tracking information in the second object tracking information storage unit 131.
When executing the processing of step S105 after the processing of step S103, the second object detection unit 121 stores the second object identifier acquired in step S103 in the second object tracking information generated thereafter. To do. In addition, when the second target object detection unit 121 executes the process of step S105 after the process of step S104, the second target object identifier generated in step S104 is added to the second target object tracking information generated thereafter. Store.

ステップS106:第2対象物検出部121は、ステップS101にて検出が開始されて以降、第2対象物追跡情報記憶部131に記憶された第2対象物追跡情報を、所定タイミングごとに統合追跡サーバ300に送信する。第2対象物検出部121は、例えば一定時間ごとのタイミングで未送信の第2対象物追跡情報を送信してもよいし、所定数の未送信の第2対象物追跡情報が蓄積(バッファリング)されたタイミングで、未送信の第2対象物追跡情報を送信してもよい。 Step S106: The second object detection unit 121 performs integrated tracking of the second object tracking information stored in the second object tracking information storage unit 131 after the detection is started in Step S101 at predetermined timings. It is transmitted to the server 300. The second object detection unit 121 may transmit, for example, untransmitted second object tracking information at a timing of every predetermined time, or a predetermined number of untransmitted second object tracking information are accumulated (buffering). ), the untransmitted second object tracking information may be transmitted.

ステップS107:ステップS105の処理の後、第2対象物検出部121は、ステップS101にて検出が開始された施設利用者について、対応の共用部PAR内の場所にて検出が可能な状態から、検出が不可の状態に遷移するのを待機する。
ステップS108:ステップS201にて検出が開始された施設利用者について、対応の共用部PAR内の場所にて検出が不可の状態となると、第2対象物検出部121は、ステップS105から開始した第2対象物追跡情報の生成を停止する。
Step S107: After the process of step S105, the second object detection unit 121 detects that the facility user whose detection has been started in step S101 can be detected at a place in the corresponding shared part PAR, Wait for transition to the undetectable state.
Step S108: When the facility user whose detection is started in step S201 becomes incapable of detection at a place in the corresponding shared portion PAR, the second object detection unit 121 causes the second object detection unit 121 to start from step S105. 2 Stop generating the object tracking information.

図10のフローチャートを参照して、本実施形態の物体検出対応追跡サーバ200が、専有部TARにおける1つの物体検出センサ20の物体検出情報に基づく施設利用者の追跡に対応して実行する処理手順例について説明する。
ステップS201:物体検出対応追跡サーバ200において、第1対象物検出部221は、専有部TARに設けられた物体検出センサ20の物体検出情報を利用して形状認識を行うことで、人(施設利用者)を検出している。そのうえで、第1対象物検出部221は、施設利用者の検出が開始されたか否かについて判定している。例えば、或る施設利用者が、他の場所から対応の専有部TARの場所に移動してくると、第1対象物検出部221は、施設利用者としての対象物の検出を開始することになる。
With reference to the flowchart of FIG. 10, a processing procedure executed by the object detection correspondence tracking server 200 of the present embodiment in correspondence with the tracking of the facility user based on the object detection information of one object detection sensor 20 in the exclusive portion TAR. An example will be described.
Step S201: In the object detection correspondence tracking server 200, the first target object detection unit 221 performs shape recognition by using the object detection information of the object detection sensor 20 provided in the exclusive unit TAR, and thus the person (facility utilization) Person) is detected. Then, the first target object detection unit 221 determines whether or not the detection of the facility user has started. For example, when a certain facility user moves from another place to the location of the corresponding exclusive unit TAR, the first target object detection unit 221 starts to detect the target object as the facility user. Become.

ステップS202:ステップS201にて施設利用者の検出が開始されると、第1対象物検出部221は、通し番号としての第1対象物識別子を新規に発行する。
ステップS203:第1対象物検出部221は、検出が開始された施設利用者に対応する第1対象物追跡情報の生成を開始する。第1対象物検出部221は、以降において、一定の時間間隔ごとに第1対象物検出部221を生成し、第1対象物追跡情報記憶部231に記憶させる。第2対象物検出部121は、生成する第1対象物追跡情報に、ステップS202により発行した第1対象物識別子を格納する。
ステップS204:第1対象物検出部221は、ステップS201にて検出が開始されて以降、第1対象物追跡情報記憶部231に記憶された第1対象物追跡情報を、所定タイミングごとに統合追跡サーバ300に送信する。
ステップS205:ステップS204の処理の後、第1対象物検出部221は、ステップS201にて検出が開始された施設利用者について、対応の専有部TAR内の場所にて検出が可能な状態から、検出が不可の状態に遷移するのを待機する。
ステップS206:ステップS201にて検出が開始された施設利用者について、対応の専有部TAR内の場所にて検出が不可の状態となると、第1対象物検出部221は、ステップS203から開始した第1対象物追跡情報の生成を停止する。
Step S202: When the detection of the facility user is started in step S201, the first object detection unit 221 newly issues a first object identifier as a serial number.
Step S203: The first object detection unit 221 starts generation of the first object tracking information corresponding to the facility user whose detection has been started. After that, the first target object detection unit 221 generates the first target object detection unit 221 at regular time intervals and stores the first target object tracking information storage unit 231. The second object detection unit 121 stores the first object identifier issued in step S202 in the generated first object tracking information.
Step S204: The first target object detection unit 221 performs integrated tracking of the first target object tracking information stored in the first target object tracking information storage unit 231 after the detection is started in Step S201, at predetermined timings. It is transmitted to the server 300.
Step S205: After the processing of step S204, the first object detection unit 221 detects that the facility user whose detection has been started in step S201 can be detected at a location within the corresponding exclusive section TAR, Wait for transition to the undetectable state.
Step S206: When the facility user whose detection is started in step S201 becomes incapable of detection at a place in the corresponding exclusive section TAR, the first target object detection unit 221 starts the first object detection unit 221 from step S203. 1 Stop the generation of target tracking information.

図11を参照して、統合追跡サーバ300が実行する処理手順例について説明する。
ステップS301:統合追跡サーバ300において対象物管理部321は、対象物追跡情報が受信されるのを待機している。つまり、対象物管理部321は、撮像対応追跡サーバ100から送信される第2対象物追跡情報が受信されるのを待機する。また、対象物管理部321は、物体検出対応追跡サーバ200から送信される第1対象物追跡情報が受信されるのを待機する。
An example of the processing procedure executed by the integrated tracking server 300 will be described with reference to FIG. 11.
Step S301: In the integrated tracking server 300, the object management unit 321 is waiting for the object tracking information to be received. That is, the object management unit 321 waits for reception of the second object tracking information transmitted from the imaging-compatible tracking server 100. Further, the object management unit 321 waits for reception of the first object tracking information transmitted from the object detection correspondence tracking server 200.

ステップS302:対象物管理部321は、対象物追跡情報が受信されたことに応じて、受信された対象物追跡情報を記憶部303に記憶させる。 Step S302: The object management unit 321 stores the received object tracking information in the storage unit 303 in response to the reception of the object tracking information.

ステップS303:対象物管理部321は、ステップS302により記憶された対象物追跡情報について、同一の施設利用者(対象物)の移動に対応する一対(ペア)の第1対象物追跡情報と第2対象物追跡情報とがあるか否かについて判定する。
対象物管理部321は、以下のペア成立条件が満たされる第1対象物追跡情報と第2対象物追跡情報を、同一の施設利用者(対象物)の移動に対応するペアとして判定する。
Step S303: The object management unit 321 regards the object tracking information stored in step S302 as a pair of the first object tracking information and the second object tracking information corresponding to the movement of the same facility user (object). It is determined whether or not there is object tracking information.
The target object management unit 321 determines the first target object tracking information and the second target object tracking information, which satisfy the following pair establishment conditions, as a pair corresponding to the movement of the same facility user (target object).

ペア成立条件としては、以下の3つの条件要素1、2、3をいずれも満たすことである。
条件要素1:第1対象物追跡情報と第2対象物追跡情報との組み合わせとして、一方の対象物追跡情報が施設利用者の検出の開始に応じて最初に生成されたものであり、他方の対象物追跡情報が、検出不可との判定に対応して生成が停止されたことで、最後に生成されたものであること。
条件要素2:第1対象物追跡情報と第2対象物追跡情報とのそれぞれに格納されるタイムスタンプが示す時刻の差が、同時刻とみなせる一定範囲内であること。
条件要素3:第1対象物追跡情報に格納される撮像装置識別子が示す撮像装置10の撮像範囲に対応する場所と、第1対象物追跡情報に格納される対象物位置情報が示す位置(座標)とが、専有部TARと共用部PARとの境界を移動する際の動線に対応していること。
このような条件要素3が満たされているか否かの判定のために、例えば撮像対応追跡サーバ100の記憶部103に、撮像装置10ごとの撮像範囲に対応する場所を示す場所情報を記憶させておき、対象物管理部321が、記憶された場所情報を参照するようにされてよい。
このような位置関係に関する条件要素3を加えることで、例えば共用部PARと専有部TARとの間を施設利用者が移動可能な場所(出入口)が複数あるような場合であっても、それぞれの出入口での施設利用者の移動に対応して、適切に同一の施設利用者の移動に対応するペアの第1対象物追跡情報と第2対象物追跡情報を判定できる。
一例として、施設利用者が、専有部TARから共用部PARに或る1つの出入口にて移動した場合、当該施設利用者については、専有部TARから出たことに応じて最後に生成された第1対象物追跡情報と、共用部PARに入ってきたことに応じて最初に生成された第2対象物追跡情報とが得られる。そして、最後に生成された第1対象物追跡情報と最後に生成された第2対象物追跡情報とは、それぞれ同時刻とみなせる時間差の時刻を示すタイムスタンプを格納している。また、第1対象物追跡情報に格納される対象物位置情報が示す座標と、第2対象物追跡情報に対応する撮像装置の場所情報とは、専有部TARと共用部PARとの境界を挟んで、出入口の位置に対応する同じ動線にある関係となる。
従って、上記のようなペア成立条件が満たされる第1対象物追跡情報と第2対象物追跡情報は、施設利用者が、或る特定の出入口にて専有部TARから共用部PARに移動した、もしくは共用部PARから専有部TARに移動したことに応じて得られるものにほかならない。
The pair establishment condition is to satisfy all of the following three condition elements 1, 2, and 3.
Condition element 1: As a combination of the first target tracking information and the second target tracking information, one target tracking information is first generated in response to the start of detection by the facility user, and the other target tracking information. The object tracking information is the last one generated when the generation is stopped in response to the determination that detection is impossible.
Conditional element 2: The difference between the times indicated by the time stamps stored in the first object tracking information and the second object tracking information is within a certain range that can be regarded as the same time.
Condition element 3: a location corresponding to the imaging range of the imaging device 10 indicated by the imaging device identifier stored in the first object tracking information, and a position (coordinates) indicated by the object position information stored in the first object tracking information. ) Corresponds to the flow line when moving the boundary between the exclusive part TAR and the common part PAR.
In order to determine whether or not the condition element 3 is satisfied, for example, the storage unit 103 of the imaging-compatible tracking server 100 stores location information indicating a location corresponding to the imaging range of each imaging device 10. Every time, the object management unit 321 may refer to the stored location information.
Even if there are a plurality of places (doorways) where facility users can move between the shared part PAR and the exclusive part TAR, by adding the conditional element 3 relating to such a positional relationship, Corresponding to the movement of the facility user at the entrance/exit, it is possible to appropriately determine the first object tracking information and the second object tracking information of the pair corresponding to the movement of the same facility user.
As an example, when the facility user moves from the exclusive department TAR to the common area PAR at a certain entrance/exit, the facility user is generated lastly in response to having exited from the exclusive department TAR. One object tracking information and the second object tracking information initially generated in response to entering the common area PAR are obtained. The first object tracking information generated last and the second object tracking information finally generated store time stamps indicating the time differences that can be regarded as the same time. Further, the coordinates indicated by the object position information stored in the first object tracking information and the location information of the imaging device corresponding to the second object tracking information sandwich the boundary between the exclusive portion TAR and the common portion PAR. Then, the relationship is in the same flow line corresponding to the position of the doorway.
Therefore, regarding the first object tracking information and the second object tracking information satisfying the above-mentioned pair formation condition, the facility user moves from the exclusive section TAR to the common section PAR at a specific entrance/exit, Alternatively, it can be obtained only by moving from the shared part PAR to the exclusive part TAR.

ステップS304:対象物管理部321は、ステップS303にて、ペア成立条件を満たす第1対象物追跡情報と第2対象物追跡情報のペアがあると判定した場合、さらに以下の判定を行う。
つまり、対象物管理部321は、ステップS303にてペアとして判定されたうちの一方である第2対象物追跡情報が格納するのと同じ第2対象物識別子を格納する、同一施設利用者(対象物)の共通対象物情報が、既に共通対象物情報記憶部331に記憶されているか否かについて判定する。
ステップS305:ステップS304にて、同一施設利用者(対象物)の共通対象物情報が、未だ共通対象物情報記憶部331に記憶されていないと判定された場合、対象物管理部321は、共通対象物情報を新規に発行する。
ステップS306:一方、ステップS304にて、同一施設利用者(対象物)の共通対象物情報が、既に共通対象物情報記憶部331に記憶されていると判定された場合、対象物管理部321は、既に共通対象物情報記憶部331に記憶されている同一施設利用者(対象物)の共通対象物情報の共通対象物識別子を取得する。
ステップS307:ステップS305またはステップS306の処理の後、対象物管理部321は、共通対象物情報を生成する。生成された共通対象物情報には、ステップS303にてペアであると判定された第1対象物追跡情報と第2対象物追跡情報とのそれぞれに格納される第1対象物識別子と第2対象物識別子とが含まれる。また、生成された共通対象物情報には、ステップS305またはステップS306によって得られた共通対象物識別子が格納される。また、生成された共通対象物情報には、例えば今回の共通対象物情報の生成タイミングに対応する時刻を示す対応確認タイムスタンプが格納される。なお、対応確認タイムスタンプは、例えば、ステップS303にてペアであると判定された第1対象物追跡情報と第2対象物追跡情報とのそれぞれに格納されるタイムスタンプが示す時刻に基づいた時刻とされてよい。
ステップS308:対象物管理部321は、ステップS307により生成された共通対象物情報を、共通対象物情報記憶部331に記憶させる。
Step S304: If the object management unit 321 determines in step S303 that there is a pair of the first object tracking information and the second object tracking information that satisfies the pair establishment condition, the object managing unit 321 further performs the following determination.
That is, the target object management unit 321 stores the same second target object identifier that is stored in the second target object tracking information, which is one of the pair objects determined in step S303, as the same facility user (target object). Common object information of object) is already stored in the common object information storage unit 331.
Step S305: When it is determined in step S304 that the common object information of the same facility user (object) is not yet stored in the common object information storage unit 331, the object management unit 321 determines that the common object information is common. Newly issue target information.
Step S306: On the other hand, when it is determined in step S304 that the common target object information of the same facility user (target object) is already stored in the common target object information storage unit 331, the target object management unit 321 , The common object identifier of the common object information of the same facility user (object) already stored in the common object information storage unit 331 is acquired.
Step S307: After the processing of step S305 or step S306, the object management unit 321 generates common object information. In the generated common object information, the first object identifier and the second object stored in each of the first object tracking information and the second object tracking information determined to be a pair in step S303. And an object identifier. Further, the common object information obtained in step S305 or step S306 is stored in the generated common object information. Further, in the generated common object information, for example, a correspondence confirmation time stamp indicating the time corresponding to the generation timing of the current common object information is stored. The correspondence confirmation time stamp is, for example, a time based on the time indicated by the time stamps stored in each of the first target object tracking information and the second target object tracking information determined to be a pair in step S303. May be
Step S308: The target object management unit 321 causes the common target object information storage unit 331 to store the common target object information generated in step S307.

このように、図9〜図11の処理が実行されることで、同じ1の施設利用者について、共用部PARでの検出結果を示す第2対象物追跡情報と、専有部TARでの検出結果を示す第1対象物追跡情報との対応付けが、共通対象物情報によって為されることになる。つまり、施設FACにおいて共用部PARと専有部との間を移動する施設利用者の追跡が可能となる。 In this way, by executing the processing of FIGS. 9 to 11, for the same one facility user, the second object tracking information indicating the detection result in the common part PAR and the detection result in the exclusive part TAR. Correspondence with the first target object tracking information indicating is indicated by the common target object information. That is, in the facility FAC, it is possible to track the facility user who moves between the shared part PAR and the exclusive part.

例えば、統合追跡サーバ300もしくは施設管理サーバ400は、上記のようにして得られ第1対象物追跡情報、第2対象物追跡情報、共通対象物情報に基づき、施設FACにおける施設利用者ごとの追跡結果を示す情報(施設内利用者追跡情報)を得ることができる。このような施設内利用者追跡情報に基づいては、施設FACにおける施設利用者ごとの移動軌跡や、施設FACにおける現在及び過去の施設FACにおける施設利用者の分布を把握できる。 For example, the integrated tracking server 300 or the facility management server 400 performs tracking for each facility user in the facility FAC based on the first target object tracking information, the second target object tracking information, and the common target object information obtained as described above. Information indicating the result (in-house user tracking information) can be obtained. Based on such in-facility user tracking information, it is possible to grasp the movement trajectory of each facility user in the facility FAC and the distribution of the facility users in the current and past facility FACs in the facility FAC.

そこで、例えば施設管理サーバ400の設備制御部421は、施設内利用者追跡情報に基づいて、例えば施設FACにおける所定の設備を制御することができる。
一具体例として、設備制御部421は、施設FACにおけるエリアごとにおける人数を判定し、判定された人数に応じて、エリアごとに空調機器の制御を行うことができる。
また、設備制御部421は、施設FACにおけるデジタルサイネージのための表示装置の近傍に施設利用者が存在していると判定したことに応じて、当該施設利用者に向けて広告、その他のコンテンツを表示するように、表示装置としての設備500を制御することができる。このように設備500を制御するにあたっては、例えば、対応の施設利用者についての属性情報(図5)が取得されている場合には、属性情報が示す属性に対応した内容の表示が表示装置によって行われるように制御してよい。また、表示装置の近傍の施設利用者の属性に応じて特定される施設利用者の目線の高さに応じて、表示装置におけるコンテンツの表示位置を、施設利用者が見やすくなるように変更してよい。具体的には、設備制御部421は、属性情報が「成人」であることを示す場合には、平均的な成人の身長に対応させた目線にあわせた表示とし、属性情報が「子供」や「車いすに乗っている」といったこと示す場合には、平均的な低めの目線にあわせた表示となるように制御してよい。
また、設備制御部421は、「倒れている」といった属性情報が得られたことに応じて、所定の報知先に、急病人の発生したことを、急病人の発生したエリアに関する情報も含めて報知するようにしてよい。
また、設備制御部421は、例えば共用部PARにおいて撮像装置10により画像認識を行った結果、顔について個人認識ができない施設利用者については、不審者に分類するとともに、例えば警備の端末装置に不審者の存在を報知するようにしてよい。
また、施設内利用者追跡情報は、例えば施設FACの運営者が、所定の機会で参照し、施設FACにおける各種の施策検討に用いることができる。
Therefore, for example, the facility control unit 421 of the facility management server 400 can control a predetermined facility in the facility FAC, for example, based on the in-facility user tracking information.
As a specific example, the facility control unit 421 can determine the number of people in each area of the facility FAC, and can control the air conditioning equipment for each area according to the determined number of people.
In addition, the facility control unit 421 determines that the facility user is present in the vicinity of the display device for digital signage in the facility FAC, and then sends an advertisement or other content to the facility user. The equipment 500 as a display device can be controlled to display. In controlling the facility 500 in this way, for example, when the attribute information (FIG. 5) about the corresponding facility user is acquired, the display device displays the content corresponding to the attribute indicated by the attribute information. It may be controlled to occur. In addition, the display position of the content on the display device is changed according to the height of the facility user's eyes specified according to the attribute of the facility user near the display device so that the facility user can easily see the contents. Good. Specifically, when the attribute information indicates "adult", the equipment control unit 421 displays the attribute information as "child" or "child" when the attribute information indicates "adult". In the case of indicating that "you are in a wheelchair", you may control so that it may be displayed in line with an average lower line of sight.
In addition, the equipment control unit 421, in response to the acquisition of the attribute information such as "falling down", includes the information about the occurrence of the sudden illness and the information about the area where the sudden illness occurs in a predetermined notification destination. You may be notified.
Further, the facility control unit 421 classifies a facility user whose face cannot be individually recognized as a result of image recognition by the imaging device 10 in the common unit PAR, for example, into a suspicious person and, for example, a suspicious terminal device for security. The presence of the person may be notified.
Further, the in-facility user tracking information can be referred to by an operator of the institution FAC at a predetermined opportunity, and can be used for studying various measures in the institution FAC.

なお、上記実施形態では、共用部PARと専有部TARとの間を移動した施設利用者についての移動前と移動後の対象物追跡情報とを対応付けるにあたってはペア成立条件として条件要素1、2、3を全て満たす場合を例に挙げた。つまり、この場合には、移動前の区分エリアでの施設利用者の最後の検出に対応する対象物追跡情報と、移動後の区分エリアでの施設利用者の検出開始に対応する対象物追跡情報との、それぞれが示す位置の関係と、時刻の関係とに基づいて、対応付けが行われていた。
しかしながら、例えば、共用部PARと専有部TARとの間で移動可能な場所が1箇所に限定されており、その移動可能な場所では一度に施設利用者が一人しか出入りできないような状況であれば、自ずと位置については限定される。そこで、このような場合には、位置の関係性に関する条件要素3については省略し、条件要素1、2が成立したことに応じて、移動前と移動後の対象物追跡情報とを対応付けるようにされてもよい。
また、物体検出対応追跡サーバ200による第1対象物追跡情報の処理と撮像対応追跡サーバ100による第2対象物追跡情報の処理と、統合追跡サーバ300による共通対象物情報の生成は、ほぼリアルタイムとみてよいタイミングで実行できる。このことを考慮すれば、統合追跡サーバ300の対象物管理部321は、タイムスタンプが示す時刻の対応関係(条件要素2)を確認することなく、随時、条件要素1、2を満たすことが判定された第1対象物追跡情報と第2対象物追跡情報とを対応付けて共通対象物情報を生成するようにされてよい。
In the above embodiment, in associating the object tracking information before and after the movement for the facility user who has moved between the shared portion PAR and the exclusive portion TAR, condition elements 1, 2, The case where all 3 are satisfied is taken as an example. That is, in this case, the object tracking information corresponding to the last detection of the facility user in the section area before the movement and the object tracking information corresponding to the start of the detection of the facility user in the section area after the movement And the relationship between the positions indicated by and, and the relationship between the times.
However, for example, in a situation where the common area PAR and the exclusive area TAR can be moved to only one place and only one facility user can go in and out at a time in the movable place. However, the position is naturally limited. Therefore, in such a case, the condition element 3 relating to the positional relationship is omitted, and the object tracking information before the movement and the object tracking information after the movement are associated with each other in accordance with the satisfaction of the condition elements 1 and 2. May be done.
Further, the processing of the first object tracking information by the object detection compatible tracking server 200, the processing of the second object tracking information by the imaging compatible tracking server 100, and the generation of the common object information by the integrated tracking server 300 are almost real time. It can be executed at a good timing. Considering this, the object management unit 321 of the integrated tracking server 300 determines that the condition elements 1 and 2 are satisfied at any time without checking the correspondence relationship (condition element 2) of the time indicated by the time stamp. The common target object information may be generated by associating the first target object tracking information with the second target object tracking information.

なお、本実施形態の追跡システムの構成は、建物の用途について特に限定されることなく適用可能である。本実施形態の追跡システムの構成は、例えば、オフィスビル、ショッピングモールのほか、病院施設等をはじめ他の用途の施設にも適用できる。 The configuration of the tracking system of the present embodiment can be applied without any particular limitation on the use of the building. The configuration of the tracking system of the present embodiment can be applied to, for example, office buildings, shopping malls, facilities for other purposes such as hospital facilities, and the like.

なお、本実施形態の追跡システムが追跡の対象とする対象物は、例えば特定の動物、荷物など人以外であってもよい。 The object to be tracked by the tracking system of this embodiment may be a person other than a person such as a specific animal or luggage.

なお、本実施形態における1の施設利用者についての追跡は、例えば1日ごと、1営業日における所定の時間帯区分ごと、といったように、所定の時間区分ごとに区切るようにして、対象物追跡情報を管理するように実行されてよい。この場合、撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300は、例えば所定の時間帯区分の開始に応じて、先の時間帯区分にて検出されていた施設利用者についても、新規に検出された施設利用者として処理して、第1対象物追跡情報、第2対象物追跡情報、及び共通対象物情報を生成していくようにされてよい。 The tracking of one facility user in the present embodiment is performed by dividing the object into predetermined time segments, for example, every day, every predetermined time zone in one business day. It may be implemented to manage information. In this case, the imaging-compatible tracking server 100, the object detection-compatible tracking server 200, and the integrated tracking server 300, for example, also correspond to the facility user who has been detected in the previous time zone division in response to the start of a predetermined time zone division. Alternatively, the first object tracking information, the second object tracking information, and the common object information may be generated by processing as a newly detected facility user.

なお、上記実施形態においては、撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300がそれぞれ独立した個別のサーバとされた構成を示した。しかしながら、これらのサーバのうちの少なくとも一部が統合された1つのサーバとして構成されてもよい。 In the above embodiment, the imaging compatible tracking server 100, the object detection compatible tracking server 200, and the integrated tracking server 300 are configured as independent servers. However, at least a part of these servers may be configured as one integrated server.

なお、上述の撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300や施設管理サーバ400等としての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300や施設管理サーバ400等としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。 It should be noted that a program for realizing the functions of the above-described imaging compatible tracking server 100, object detection compatible tracking server 200, integrated tracking server 300, facility management server 400, etc. is recorded in a computer-readable recording medium, and this recording is performed. The program recorded in the medium may be read by a computer system and executed to perform the processing as the above-described imaging-compatible tracking server 100, object detection-compatible tracking server 200, integrated tracking server 300, facility management server 400, and the like. .. Here, “reading and executing a program recorded in a recording medium on a computer system” includes installing the program in the computer system. The "computer system" here includes an OS and hardware such as peripheral devices. The “computer system” may include a plurality of computer devices connected via a network including communication lines. The recording medium also includes a recording medium provided inside or outside accessible from the distribution server for distributing the program.

10(10−1、10−2) 撮像装置、20 物体検出センサ、100 撮像対応追跡サーバ、121 第2対象物検出部、131 第2対象物追跡情報記憶部、200 物体検出対応追跡サーバ、221 第1対象物検出部、231 第1対象物追跡情報記憶部、300 統合追跡サーバ、321 対象物管理部、331 共通対象物情報記憶部、400 施設管理サーバ、500 設備 10 (10-1, 10-2) imaging device, 20 object detection sensor, 100 imaging compatible tracking server, 121 second object detection unit, 131 second object tracking information storage unit, 200 object detection compatible tracking server, 221 First object detection unit, 231 First object tracking information storage unit, 300 Integrated tracking server, 321 Object management unit, 331 Common object information storage unit, 400 Facility management server, 500 facilities

Claims (7)

施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1対象物追跡情報を生成する第1対象物検出部と、
施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出部と、
前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理部と
を備える追跡システム。
A first object based on the result of detection of the object based on the detection information of the object detection sensor provided corresponding to the first type of area in the facility and detection of the position of the detected object A first object detection unit that generates tracking information,
Based on the image recognition processing using the imaged image obtained by the imaging device provided corresponding to the second type of divided area in the facility, the target object in the second type of divided area is detected. A second object detection unit that generates second object tracking information based on the detection result,
An object management unit that associates the first object tracking information and the second object tracking information of the same object that has moved the boundary between the first type of segmented area and the second type of segmented area, Tracking system equipped.
対象物管理部は、対応付けられる関係にある同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とのそれぞれにおいて、対象物を識別する情報として格納される対象物識別子を対応付けた共通対象物情報を生成する
請求項1に記載の追跡システム。
The object management unit stores an object identifier stored as information for identifying an object in each of the first object tracking information and the second object tracking information of the same object having a corresponding relationship. The tracking system according to claim 1, wherein the common object information is associated with each other.
前記対象物管理部は、一定範囲の時間内において、移動前の一方の種別の区分エリアにおいて最後に対象物が検出された、前記一方の種別の区分エリアに対応する対象物追跡情報と、移動後の他方の種別の区分エリアにおいて対象物の検出が開始された、前記他方の種別の区分エリアに対応する対象物追跡情報とを対応付ける
請求項1または2に記載の追跡システム。
The object management unit, within a certain range of time, the object tracking information corresponding to the one type of divided area where the object was finally detected in the one type of divided area before the movement, and the movement. The tracking system according to claim 1, wherein the tracking system is associated with target object tracking information corresponding to the other type of segmented area where detection of an object has started in the other type of segmented area.
前記対象物管理部は、移動前の一方の種別の区分エリアにおいて最後に対象物が検出されたことに応じて生成された対象物追跡情報において示される対象物の位置と、移動後の他方の種別の区分エリアにおいて対象物の検出が開始されたことに応じて生成された対象物追跡情報において示される対象物の位置との関係が所定の条件を満たす場合に、前記一方の種別の区分エリアに対応する対象物追跡情報と、前記他方の種別の区分エリアに対応する対象物追跡情報とを対応付ける
請求項1から3のいずれか一項に記載の追跡システム。
The object management unit, the position of the object shown in the object tracking information generated in response to the last detection of the object in one type of divided area before movement, and the other of the after movement If the relationship with the position of the object indicated in the object tracking information generated in response to the start of detection of the object in the classification area of the type satisfies a predetermined condition, the classification area of the one type The tracking system according to any one of claims 1 to 3, wherein the object tracking information corresponding to the item is associated with the object tracking information corresponding to the other type of segmented area.
前記第1対象物検出部は、前記検出結果に基づいて、検出された対象物の属性を判定し、判定された属性を示す属性情報を検出された対象物に対応付ける
請求項1から4のいずれか一項に記載の追跡システム。
The first object detection unit determines an attribute of the detected object based on the detection result, and associates attribute information indicating the determined attribute with the detected object. The tracking system according to 1 above.
施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1対象物追跡情報を生成する第1対象物検出ステップと、
施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出ステップと、
前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理ステップと
を備える追跡処理方法。
A first object based on the result of detection of the object based on the detection information of the object detection sensor provided corresponding to the first type of area in the facility and detection of the position of the detected object A first object detection step of generating tracking information,
Based on the image recognition processing using the imaged image obtained by the imaging device provided corresponding to the second type of divided area in the facility, the target object in the second type of divided area is detected. A second object detection step of generating second object tracking information based on the detection result,
An object management step of associating the first object tracking information and the second object tracking information of the same object that has moved the boundary between the first type of segmented area and the second type of segmented area. Tracking method provided.
追跡システムにおいて備えられるコンピュータを、
施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1対象物追跡情報を生成する第1対象物検出部、
施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出部、
前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理部
として機能させるためのプログラム。
A computer equipped in the tracking system,
A first object based on the result of detection of the object based on the detection information of the object detection sensor provided corresponding to the first type of area in the facility and detection of the position of the detected object A first object detection unit that generates tracking information,
Based on the image recognition processing using the imaged image obtained by the imaging device provided corresponding to the second type of divided area in the facility, the target object in the second type of divided area is detected. A second object detection unit that generates second object tracking information based on the detection result,
Functioning as an object management unit that associates the first object tracking information and the second object tracking information of the same object that has moved along the boundary between the first type section area and the second type section area A program to let you.
JP2018241441A 2018-12-25 2018-12-25 Tracking system, tracking processing method, and program Pending JP2020102135A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018241441A JP2020102135A (en) 2018-12-25 2018-12-25 Tracking system, tracking processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018241441A JP2020102135A (en) 2018-12-25 2018-12-25 Tracking system, tracking processing method, and program

Publications (1)

Publication Number Publication Date
JP2020102135A true JP2020102135A (en) 2020-07-02

Family

ID=71139688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018241441A Pending JP2020102135A (en) 2018-12-25 2018-12-25 Tracking system, tracking processing method, and program

Country Status (1)

Country Link
JP (1) JP2020102135A (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera
US20100048242A1 (en) * 2008-08-19 2010-02-25 Rhoads Geoffrey B Methods and systems for content processing
JP2010108037A (en) * 2008-10-28 2010-05-13 Nec System Technologies Ltd Action tracking system, action tracking method, and action tracking program
JP2011193187A (en) * 2010-03-15 2011-09-29 Omron Corp Monitoring camera terminal
JPWO2010044186A1 (en) * 2008-10-17 2012-03-08 パナソニック株式会社 Flow line creation system, flow line creation device, and three-dimensional flow line display device
JPWO2011021588A1 (en) * 2009-08-20 2013-01-24 日本電気株式会社 Moving body trajectory identification system
JP5683663B1 (en) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 Residence time measuring device, residence time measuring system, and residence time measuring method
JP2015088816A (en) * 2013-10-29 2015-05-07 セコム株式会社 Image monitoring system
JPWO2013128852A1 (en) * 2012-02-29 2015-07-30 日本電気株式会社 Flow line information generation system, flow line information generation method, and flow line information generation program
JP2018093283A (en) * 2016-11-30 2018-06-14 マクセル株式会社 Monitoring information gathering system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146378A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera
US20100048242A1 (en) * 2008-08-19 2010-02-25 Rhoads Geoffrey B Methods and systems for content processing
JPWO2010044186A1 (en) * 2008-10-17 2012-03-08 パナソニック株式会社 Flow line creation system, flow line creation device, and three-dimensional flow line display device
JP2010108037A (en) * 2008-10-28 2010-05-13 Nec System Technologies Ltd Action tracking system, action tracking method, and action tracking program
JPWO2011021588A1 (en) * 2009-08-20 2013-01-24 日本電気株式会社 Moving body trajectory identification system
JP2011193187A (en) * 2010-03-15 2011-09-29 Omron Corp Monitoring camera terminal
JPWO2013128852A1 (en) * 2012-02-29 2015-07-30 日本電気株式会社 Flow line information generation system, flow line information generation method, and flow line information generation program
JP5683663B1 (en) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 Residence time measuring device, residence time measuring system, and residence time measuring method
JP2015088816A (en) * 2013-10-29 2015-05-07 セコム株式会社 Image monitoring system
JP2018093283A (en) * 2016-11-30 2018-06-14 マクセル株式会社 Monitoring information gathering system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOHN SHACKLETON, BRIAN VAN VOORST, JOEL HESCH: "Tracking People with a 360-Degree Lidar", 2010 7TH IEEE INTERENATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE, JPN6022044579, 29 August 2010 (2010-08-29), US, pages 420 - 426, XP031772055, ISSN: 0004903672 *
横田 隆之, 黒田 洋司: "LIDARを用いた形状的特徴による人認識", ロボティクス・メカトロニクス講演会講演概要集, vol. 2014巻(2014), セッション3P1-K04, JPN6022044578, 24 May 2014 (2014-05-24), JP, pages 1 - 4, ISSN: 0004903671 *
野村 温: "モバイルエージェント技術を用いた人物追跡システム −複数システムを跨がった人物追跡手法の提案−", FIT2013 第12回情報科学技術フォーラム 講演論文集 第4分冊 査読付き論文・一般論文 ネット, JPN6022031724, 20 August 2013 (2013-08-20), JP, pages 247 - 250, ISSN: 0004839472 *

Similar Documents

Publication Publication Date Title
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
JP5871296B1 (en) Smart security digital system, method and program
JP6286394B2 (en) Image surveillance system
JP6885682B2 (en) Monitoring system, management device, and monitoring method
JP2018173914A (en) Image processing system, imaging apparatus, learning model creation method, and information processing device
KR101788269B1 (en) Method and apparatus for sensing innormal situation
WO2018180588A1 (en) Facial image matching system and facial image search system
US9292939B2 (en) Information processing system, information processing method and program
US9336444B2 (en) System and method for occupancy detection using differential image sensing and optical markers
JP2011039959A (en) Monitoring system
EP3355282B1 (en) System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device
KR20100010325A (en) Method for tracking object
JP2018201176A (en) Alert output control program, alert output control method, and alert output control apparatus
JP5202419B2 (en) Security system and security method
JP7149063B2 (en) Monitoring system
JP2009194711A (en) Region user management system and management method of the same
KR20170007070A (en) Method for visitor access statistics analysis and apparatus for the same
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP2020102135A (en) Tracking system, tracking processing method, and program
WO2022059223A1 (en) Video analyzing system and video analyzing method
WO2020170643A1 (en) Information processing device, information processing system, information processing method, and program
Bouma et al. Integrated roadmap for the rapid finding and tracking of people at large airports
JP7389955B2 (en) Information processing device, information processing method and program
EP2270761A1 (en) System architecture and process for tracking individuals in large crowded environments
KR20220004399A (en) A recorded program media for providing a security surveillance service based on user involvement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220927

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221025