JP2020102135A - Tracking system, tracking processing method, and program - Google Patents
Tracking system, tracking processing method, and program Download PDFInfo
- Publication number
- JP2020102135A JP2020102135A JP2018241441A JP2018241441A JP2020102135A JP 2020102135 A JP2020102135 A JP 2020102135A JP 2018241441 A JP2018241441 A JP 2018241441A JP 2018241441 A JP2018241441 A JP 2018241441A JP 2020102135 A JP2020102135 A JP 2020102135A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- tracking information
- information
- type
- facility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title description 3
- 238000001514 detection method Methods 0.000 claims abstract description 197
- 238000003384 imaging method Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 abstract description 7
- 102100037136 Proteinase-activated receptor 1 Human genes 0.000 description 11
- 101710121440 Proteinase-activated receptor 1 Proteins 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- NTQVODZUQIATFS-WAUHAFJUSA-N (2s)-2-[[(2s)-6-amino-2-[[2-[[(2s,3s)-2-[[(2s)-2-[[(2s)-2-amino-3-hydroxypropanoyl]amino]-4-methylpentanoyl]amino]-3-methylpentanoyl]amino]acetyl]amino]hexanoyl]amino]-3-methylbutanoic acid Chemical compound OC[C@H](N)C(=O)N[C@@H](CC(C)C)C(=O)N[C@@H]([C@@H](C)CC)C(=O)NCC(=O)N[C@@H](CCCCN)C(=O)N[C@@H](C(C)C)C(O)=O NTQVODZUQIATFS-WAUHAFJUSA-N 0.000 description 7
- 102100037132 Proteinase-activated receptor 2 Human genes 0.000 description 7
- 101710121435 Proteinase-activated receptor 2 Proteins 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
Images
Abstract
Description
本発明は、追跡システム、追跡処理方法、及びプログラムに関する。 The present invention relates to a tracking system, a tracking processing method, and a program.
複数のカメラごとの撮像画像を利用して施設内に滞在する人物をリアルタイムに監視可能な技術が知られている(例えば、特許文献1参照)。 There is known a technique capable of monitoring a person staying in a facility in real time by using captured images of a plurality of cameras (for example, refer to Patent Document 1).
各種用途の施設を運用するにあたり、施設利用者の移動を追跡して、施設における動線把握、位置情報取得、所在把握などを行いたいという要望がある。例えばオフィスビルの従業員の現在位置把握また動線把握や、ショッピングモール等のように客が大きく移動する商業施設における警備やマーケティング等のための動線把握などの例を挙げることができる。このような施設利用者の移動追跡は、例えば監視カメラなどの撮像装置を多数設置することで実現可能である。
しかしながら施設によっては、テナントオフィスビルやテナント店舗が入居するショッピングモールなどのように、エリアが専有部と共用部とに分かれ、プライバシー保護や警備等の管理、運用が専有部と共用部とで異なる場合がある。例えば、専有部では施設利用者のプライバシーが重視されるため、監視カメラを取付けることが好ましくなく、一方、共用部では施設利用者の安全確保の観点から監視カメラ(即ち、撮像装置)の設置が好まれるという事例を挙げることができる。このような場合、撮像装置により施設全体における施設利用者の追跡を行うことは、個人を特定できてしまうため、特に専有部では好ましくないという側面がある。
In operating a facility for various purposes, there is a demand to track the movement of the facility user to grasp the flow line in the facility, acquire position information, and grasp the whereabouts. For example, examples include grasping the current position of an employee in an office building, grasping the flow line, and grasping the flow line for security and marketing in a commercial facility such as a shopping mall where customers move widely. Such movement tracking of facility users can be realized by installing a large number of imaging devices such as surveillance cameras.
However, depending on the facility, the area is divided into a private part and a common part, such as a tenant office building or a shopping mall in which a tenant store is located, and the management and operation of privacy protection and security etc. are different between the private part and the common part. There are cases. For example, it is not preferable to install a surveillance camera in the private part because the privacy of the facility user is important, while in the common part, the surveillance camera (that is, the imaging device) should be installed from the viewpoint of ensuring the safety of the facility user. We can mention the case of being liked. In such a case, it is not preferable to track the facility users in the entire facility by the image capturing device, because it is possible to identify an individual, and it is not preferable especially in the exclusive section.
本発明は、このような事情に鑑みてなされたもので、プライバシーを考慮しつつ、施設における対象の追跡を可能とすることを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to enable tracking of an object in a facility while considering privacy.
上述した課題を解決する本発明の一態様は、施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1の対象物追跡情報を生成する第1対象物検出部と、施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出部と、前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理部とを備える追跡システムである。 One aspect of the present invention for solving the above-described problem is detection of an object based on detection information of an object detection sensor provided corresponding to a first-type divided area among divided areas in a facility and the detected object. The first object detection unit that generates the first object tracking information based on the result of the detection of the position and the image pickup device that is provided corresponding to the second type of divided area among the divided areas in the facility. A second object detection unit that detects an object in the second type of segmented area based on image recognition processing using the captured image, and generates second object tracking information based on the detection result; An object management unit that associates the first object tracking information and the second object tracking information of the same object that has moved the boundary between the first type of segmented area and the second type of segmented area. It is a tracking system.
また、本発明の一態様は、施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1の対象物追跡情報を生成する第1対象物検出ステップと、施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出ステップと、前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理ステップとを備える追跡処理方法である。 Further, according to one embodiment of the present invention, detection of an object and detection of a position of the detected object based on detection information of an object detection sensor which is provided corresponding to a first-type divided area among divided areas in a facility. A first object detection step of generating first object tracking information based on the result of the above, and a captured image obtained by an imaging device provided corresponding to a second type of divided area among the divided areas in the facility. A second target object detection step of detecting a target object in the second type of segmented area based on image recognition processing utilizing, and generating second target object tracking information based on the detection result; A tracking processing method comprising: an object management step of associating the first object tracking information and the second object tracking information of the same object that has moved a boundary between the divided area and the second type of divided area. is there.
また、本発明の一態様は、追跡システムにおいて備えられるコンピュータを、上記の各部として機能させるためのプログラムである。 Further, one aspect of the present invention is a program for causing a computer provided in a tracking system to function as each of the above units.
以上説明したように、本発明によれば、プライバシーを考慮しつつ、施設における対象の追跡が可能になるという効果が得られる。 As described above, according to the present invention, it is possible to obtain the effect that the target can be traced in the facility while considering privacy.
図1は、本実施形態の追跡システムの全体的な構成例を示している。同図の追跡システムは、施設FACにおいて移動する施設利用者を個別に特定しながら追跡する。
同図においては、施設FAC内の区分エリアのうち、或る2つの共用部PAR−1、PAR−2(第2種別の区分エリアの一例)と或る1つの専有部TAR(第1種別の区分エリアの一例)が示されている。専有部TARは、共用部PAR−1、PAR−2のそれぞれと隣接している。
以降の説明にあたり、共用部PAR−1、PAR−2について特に区別しない場合には、共用部PARと記載する。
以降においては、共用部PARが2つ、専有部TARが1つの場合を例に挙げて説明するが、施設FACにおける共用部PARと専有部TARとの数は特に限定されるものではなく、適宜必要数が設けられてよい。
FIG. 1 shows an example of the overall configuration of the tracking system of this embodiment. The tracking system shown in the figure tracks the facility users who individually move in the facility FAC.
In the figure, among the divided areas in the facility FAC, there are two common areas PAR-1, PAR-2 (an example of the second type of divided areas) and a certain exclusive area TAR (of the first type). An example of a section area) is shown. The exclusive part TAR is adjacent to each of the common parts PAR-1 and PAR-2.
In the following description, common parts PAR-1 and PAR-2 will be referred to as common parts PAR unless otherwise specified.
In the following, a case where there are two shared parts PAR and one dedicated part TAR will be described as an example, but the number of shared parts PAR and dedicated parts TAR in the facility FAC is not particularly limited, and is appropriately set. The required number may be provided.
また、同図では、共用部PAR−1に撮像装置10−1が設けられ、共用部PAR−2に撮像装置10−2が設けられた例が示されている。
以降の説明にあたり、撮像装置10−1、撮像装置10−2を含め、共用部PARに設けられる撮像装置について特に区別しない場合には、撮像装置10と記載する。
撮像装置には、例えば監視カメラやWEBカメラといったものを使用できる。
Further, in the figure, an example is shown in which the image capturing device 10-1 is provided in the shared portion PAR-1 and the image capturing device 10-2 is provided in the shared portion PAR-2.
In the following description, the imaging devices provided in the common part PAR, including the imaging device 10-1 and the imaging device 10-2, will be referred to as the imaging device 10 unless otherwise specified.
As the image pickup device, for example, a surveillance camera or a WEB camera can be used.
撮像装置10−1は、共用部PAR−1内の所定範囲による場所を撮像するように設けられることで、所定の範囲に存在する施設利用者を撮像する。同図では、共用部PAR−1において1つの撮像装置10−1が示されているが、共用部PAR−1においては、撮像装置10−1を含め、それぞれ異なる場所を撮像するように複数の撮像装置10が設けられてよい。具体例として、共用部PAR−1が通路である場合には、通路の延伸方向に沿って、或る間隔で通路内の所定範囲の空間を撮像するように複数の撮像装置10が設けられてよい。また、複数の撮像装置10の数やそれぞれの設置場所、撮像する範囲については、共用部PARの広さや遮蔽物の設置状況等に応じて適宜変更されてよい。
また、撮像装置10−2は、共用部PAR−2内の所定範囲による場所を撮像するように設けられることで、所定の範囲に存在する施設利用者を撮像する。共用部PAR−2に関しても、撮像装置10−2を含め、それぞれ異なる場所を撮像するように複数の撮像装置10が設けられてよい。
撮像装置10のそれぞれにより得られた撮像画像の情報は、撮像対応追跡サーバ100に送信される。つまり、撮像対応追跡サーバ100には、複数の撮像装置にて得られた撮像画像の情報が集約される。
The image pickup apparatus 10-1 is provided so as to pick up an image of a place within a predetermined range in the shared portion PAR-1, and thus picks up an image of a facility user existing in the predetermined range. Although one imaging device 10-1 is shown in the shared portion PAR-1 in the figure, the shared portion PAR-1 includes a plurality of imaging devices 10-1 so as to capture images at different places. The imaging device 10 may be provided. As a specific example, when the shared portion PAR-1 is a passage, a plurality of image pickup devices 10 are provided so as to pick up images of a predetermined range of space in the passage at certain intervals along the extending direction of the passage. Good. Further, the number of the plurality of image pickup devices 10, the respective installation locations, and the image pickup ranges may be appropriately changed according to the size of the common part PAR, the installation state of the shield, and the like.
In addition, the imaging device 10-2 is provided so as to image a place within a predetermined range in the shared portion PAR-2, and thus images the facility user existing in the predetermined range. Also for the shared portion PAR-2, a plurality of image pickup devices 10 may be provided so as to pick up images of different places including the image pickup device 10-2.
Information on the captured image obtained by each of the image capturing apparatuses 10 is transmitted to the image capturing
専有部TARにおいては、物体検出センサ20が設けられる。物体検出センサ20は、例えば、LiDAR(light detection and ranging)の技術を用いたセンサであってよい。LiDARは、センサから照射されたレーザ光が物体にて反射して戻ってくるまでの時間に基づいて物体を検出する技術である。 An object detection sensor 20 is provided in the exclusive portion TAR. The object detection sensor 20 may be, for example, a sensor using a LiDAR (light detection and ranging) technique. LiDAR is a technique for detecting an object based on the time until the laser light emitted from the sensor is reflected by the object and returns.
なお、同図では、専有部TARにおいて、2つの物体検出センサ20が設けられた例が示されているが、専有部TARに設けられる物体検出センサ20の数や、物体検出センサ20の配置位置等は、例えば専有部TARの広さや遮蔽物の設置状況等に応じて定められればよい。
物体検出センサ20が物体検出を行って得られた物体検出情報は、物体検出対応追跡サーバ200に送信される。つまり、物体検出対応追跡サーバ200には、複数の物体検出センサ20により得られた物体検出情報が集約される。
It should be noted that, in the same figure, an example in which two object detection sensors 20 are provided in the exclusive portion TAR is shown, but the number of object detection sensors 20 provided in the exclusive portion TAR and the arrangement position of the object detection sensors 20 are shown. Etc. may be determined according to, for example, the size of the exclusive part TAR and the installation status of the shield.
Object detection information obtained by the object detection sensor 20 performing object detection is transmitted to the object detection
上記のように、撮像装置10により共用部PARを撮像して得られた撮像画像は、撮像対応追跡サーバ100に送信される。撮像対応追跡サーバ100では、撮像装置10から送信された撮像画像について画像認識処理を行うことで、撮像画像から人を抽出し、抽出された人の顔、衣類等の特徴量に基づいて個人認識を行う。このような個人認識では、共用部PARにて、人が移動している状態であっても、特徴量に基づいて、移動前と移動後とで同一の個人であることを検出できる。撮像対応追跡サーバ100は、このように施設利用者について個人認識した結果に基づいて、施設利用者を追跡の対象物とする追跡情報(第2対象物追跡情報)を生成する。第2対象物追跡情報に基づいて、撮像対応追跡サーバ100では、共用部PARにて検出される施設利用者について個々に追跡を行うことができる。
また、本実施形態では、撮像装置10ごとの撮像範囲がそれぞれ異なることに基づき、撮像範囲に対応する精度で追跡対象の施設利用者の位置を認識することができる。あるいは、撮像装置10により撮像して得られる撮像画像内の座標と、撮像される共用部PARの場所における位置(座標)とを対応付けたテーブルを参照することで、追跡対象の施設利用者の共用部PAR内の位置座標が認識されるようにしてよい。後述するが、このような位置座標の情報が第2対象物追跡情報に含められてよい。
撮像対応追跡サーバ100は、生成された第2対象物追跡情報を記憶する。また、撮像対応追跡サーバ100は、記憶された第2対象物追跡情報を統合追跡サーバ300に送信する。
また、撮像対応追跡サーバ100は、撮像装置10から送信された撮像画像も記憶してよい。
As described above, the picked-up image obtained by picking up the image of the shared portion PAR by the image pickup apparatus 10 is transmitted to the image pickup-
Further, in the present embodiment, the position of the facility user to be tracked can be recognized with accuracy corresponding to the imaging range based on the fact that the imaging ranges of the imaging devices 10 are different. Alternatively, by referring to a table in which the coordinates (coordinates) in the location of the shared portion PAR to be imaged are associated with each other in the imaged image obtained by imaging with the imaging device 10, the facility user of the tracking target is identified. The position coordinates in the shared portion PAR may be recognized. As will be described later, such position coordinate information may be included in the second object tracking information.
The imaging-
The imaging-
また、物体検出センサ20により得られた物体検出情報は、物体検出対応追跡サーバ200に送信される。物体検出対応追跡サーバ200は、物体検出センサ20から送信された物体検出情報により検出された物体について形状認識を行う。物体検出対応追跡サーバ200は、形状認識結果に基づいて、専有部TARにおいて存在する物体のうちから人を弁別して検出するとともに、認識された形状の特徴に応じて、検出された人のそれぞれを個別に認識することができる。物体検出対応追跡サーバ200は、このように認識される人を専有部TAR内の施設利用者として扱う。
また、物体検出対応追跡サーバ200は、物体検出情報に基づいて、物体検出センサ20を起点とする専有部TARにおいて存在する物体が位置する方向と、物体検出センサ20から物体までの距離とを検出できる。このような物体の方向と位置とに基づいては、物体の位置を座標として特定することができる。つまり、物体検出対応追跡サーバ200は、専有部TARにおける物体の位置座標を検出する。また、物体検出情報により検出された物体が移動している場合、物体検出対応追跡サーバ200は、移動前と移動後との物体の形状の特徴量の一致や、移動前と移動後とで検出される物体の位置座標の相関に基づき、物体の追跡が可能である。つまり、物体検出対応追跡サーバ200は、専有部TARにて検出される施設利用者ごとの位置に基づいて、個々の施設利用者の追跡を行うことができる。
物体検出対応追跡サーバ200は、生成された第1対象物追跡情報を記憶する。また、物体検出対応追跡サーバ200は、記憶された第1対象物追跡情報を統合追跡サーバ300に送信する。また、物体検出対応追跡サーバ200は、物体検出センサ20をもとに構成されるセンサ検知画像も記憶してよい。
Further, the object detection information obtained by the object detection sensor 20 is transmitted to the object detection
Further, the object detection
The object detection
統合追跡サーバ300は、撮像対応追跡サーバ100から受信した第2対象物追跡情報と、物体検出対応追跡サーバ200から受信した第1対象物追跡情報とを利用して、施設FAC内にて、共用部PARと専有部TARとの間を移動する状況にも対応して、施設利用者ごとの追跡が可能なように情報管理を行う。
The
上記説明から理解されるように、本実施形態では、共用部PARにおいては撮像装置10が出力する撮像画像に基づく個人認識によって施設利用者の追跡が行われるので、共用部PARにおいては、検出される施設利用者について、個人が特定されることになる。
一方、専有部TARにおいては、光技術による物体検出情報に基づいて人の追跡が行われる。物体検出情報に基づく人の検出では、例えば人としての形状は認識されるが、人の顔や服装等の特徴量までは認識されない。このため、専有部TARにおいては、検出される施設利用者について、個々に弁別はできるが、個人の特定までは行われない。
例えばテナントオフィスビルやテナント店舗などの事例でわかるように、一般的に、専有部TARでは、共用部PARよりも施設利用者のプライバシーが重視される傾向にある。このため、専有部TARに関しては、施設利用者を追跡するにあたり個人が特定されることは好ましくないという考え方を採ることができる。
一方で、共用部PARは、専有部TARよりも公共性が高く、また防犯等を考慮しても、プライバシーの重要性は低くてもよい、という考え方を採ることができる。従って、共用部PARにおいては、施設利用者を追跡するにあたり、個人が特定されることについては許容されてよい、という考え方を採ることができる。
本実施形態の構成であれば、上記の考え方に沿って、共用部PARにおいては施設利用者について個人が特定可能とされ、専有部TARにおいては施設利用者について個人は特定されないようにして情報を管理運用することで、施設FACにおける施設利用者のプライバシーを適切に管理できる。
As can be understood from the above description, in the present embodiment, the facility user is tracked by the individual recognition based on the captured image output by the imaging device 10 in the common area PAR, so that the common area PAR is detected. Individuals will be identified for each facility user.
On the other hand, in the exclusive unit TAR, a person is tracked based on the object detection information by the optical technique. In the detection of a person based on the object detection information, for example, the shape of a person is recognized, but feature amounts such as a person's face and clothes are not recognized. For this reason, in the exclusive department TAR, the detected facility users can be individually discriminated, but they are not identified.
For example, as can be seen in the case of a tenant office building or a tenant store, generally, in the private part TAR, the privacy of the facility user tends to be more important than in the common part PAR. Therefore, with respect to the exclusive department TAR, it is possible to take the idea that it is not preferable to identify an individual when tracing the facility user.
On the other hand, the common part PAR can be considered to be more public than the exclusive part TAR, and the importance of privacy may be low in consideration of crime prevention and the like. Therefore, in the common area PAR, when tracing the facility users, it is possible to allow the individual to be specified.
According to the configuration of the present embodiment, in accordance with the above concept, it is possible to identify the individual facility user in the common area PAR, and the individual information in the exclusive portion TAR so that the individual person is not identified. By managing and operating, the privacy of the facility user in the facility FAC can be appropriately managed.
また、図1においては、施設利用者PS−1が共用部PAR−1から専有部TARに移動しようとする状態が示されている。また、同図においては、施設利用者PS−2が専有部TARから共用部PAR−2に移動しようとする状態が示されている。つまり、施設利用者PS−1、PS−2は、共用部PARと専有部TARとの間の境界を移動しようとする施設利用者である。以降の説明において、施設利用者PS−1、PS−2について特に区別しない場合には、施設利用者PSと記載する。 Further, FIG. 1 shows a state in which the facility user PS-1 tries to move from the common area PAR-1 to the exclusive area TAR. Also, in the figure, a state is shown in which the facility user PS-2 is about to move from the exclusive section TAR to the common section PAR-2. That is, the facility users PS-1 and PS-2 are facility users who are going to move along the boundary between the shared part PAR and the proprietary part TAR. In the following description, facility users PS-1 and PS-2 will be referred to as facility users PS unless otherwise specified.
施設利用者PS−1が、共用部PAR−1から専有部TARに移動することに応じて、施設利用者PS−1としての個人は、共用部PAR−1において検出されなくなる。一方で、専有部TARにおいて施設利用者PS−1が検出され、追跡が開始されることになる。
共用部PARと専有部TARとでは、それぞれが異なる手法により施設利用者の追跡を行っている。特に、専有部TARにおける施設利用者の追跡にあたっては、施設利用者としての個人は特定されない。このため、特に対応を図らなければ、施設利用者PSが共用部PARと専有部TARとの間の境界を移動したタイミングで、境界を移動する前に検出されていた施設利用者PSと、境界を移動した後に検出された施設利用者PSとの一致を確認することができない。
そこで、本実施形態においては、施設利用者PSが共用部PARと専有部TARとの間の境界を移動した場合に対応して、統合追跡サーバ300により、移動前の施設利用者PSの追跡の状況を示す追跡情報と、移動後の施設利用者PSの追跡の状況を示す追跡情報との対応付けが行われるように構成される。これにより、共用部PARと専有部TARとの間での施設利用者の移動にも対応して、施設FACにおける施設利用者の追跡を行うことができる。
As the facility user PS-1 moves from the shared portion PAR-1 to the exclusive portion TAR, the individual as the facility user PS-1 is no longer detected in the shared portion PAR-1. On the other hand, the facility user PS-1 is detected in the exclusive section TAR, and tracking is started.
The shared part PAR and the exclusive part TAR track the facility users by different methods. In particular, in tracking the facility user in the exclusive department TAR, the individual as the facility user is not specified. Therefore, if no special measures are taken, at the timing when the facility user PS moves the boundary between the shared part PAR and the exclusive part TAR, the facility user PS detected before moving the boundary and the boundary It is not possible to confirm the agreement with the facility user PS detected after moving to.
Therefore, in the present embodiment, in response to the case where the facility user PS moves along the boundary between the shared part PAR and the exclusive part TAR, the
また、同図においては、施設管理サーバ400が示されている。施設管理サーバ400は、施設FACに対応する管理を行うサーバである。施設管理サーバ400は、施設FACに備えられる各種の設備500の動作を制御する。同図に示される設備500の具体例については特に限定されない。例えば、設備500としては空調機器、照明機器、デジタルサイネージとしての表示装置、エレベータやエスカレータ設備等が含まれてよい。
また、施設管理サーバ400は、現在における施設利用者の追跡状況や、施設利用者の追跡状況の履歴等に基づいて、施設FAC内の設備500を制御することができる。この点については後述する。
Further, the
Further, the
図2は、撮像対応追跡サーバ100の構成例を示している。同図の撮像対応追跡サーバ100は、通信部101、制御部102、及び記憶部103を備える。
通信部101は、撮像装置10や統合追跡サーバ300と通信を行う。
制御部102は、撮像対応追跡サーバ100における制御を実行する。制御部102としての機能は、撮像対応追跡サーバ100が備えるCPU(Central Processing Unit)がプログラムを実行することによって実現される。制御部102は、第2対象物検出部121を備える。
FIG. 2 shows an example of the configuration of the imaging-
The
The
第2対象物検出部121は、共用部PARに対応して設けられる撮像装置10から得られた撮像画像を利用した画像認識処理に基づいて、共用部PARにおける施設利用者の検出を行う。画像認識処理によっては、施設利用者ごとに個人認識が行われる。
また、第2対象物検出部121は、認識された個人の共用部PAR内での位置座標を推定(検出)することができる。例えば、第2対象物検出部121は、画像認識処理によって、画像上で写っている個人の位置に基づき、共用部PAR内での個人の位置座標を推定することができる。あるいは、撮像装置10の設置された共用部PAR内での座標が既知であるので、個人の位置座標を、撮像装置10の座標付近として推定することもできる。
従って、第2対象物検出部121は、施設利用者ごとの個人認識結果に基づいて、共用部PARにおける施設利用者ごとの追跡を行うことができる。
The second
In addition, the second
Therefore, the 2nd target
第2対象物検出部121は、先の時刻にて検出されたのと同じ施設利用者が次の時刻においても検出された場合には、同じ施設利用者を示す第2対象物識別子と次の時刻を示すタイムスタンプとを格納する第2対象物追跡情報を生成する。そして、第2対象物検出部121は、生成された第2対象物追跡情報を、第2対象物追跡情報記憶部131に記憶する。このように記憶される第2対象物追跡情報によっては、共用部PARにおいて移動する施設利用者が個人として認識されている。つまり、共用部PARにおける施設利用者については、個人を認識していることにより追跡が実現されている。
When the same facility user that was detected at the previous time is also detected at the next time, the second target
記憶部103は、撮像対応追跡サーバ100に対応する各種の情報を記憶する。記憶部103は、第2対象物追跡情報記憶部131を備える。
第2対象物追跡情報記憶部131は、第2対象物追跡情報を記憶する。第2対象物追跡情報は、共用部PARにおいて検出された施設利用者についての情報である。
図3は、第2対象物追跡情報記憶部131が例えばデータベース形式で記憶する第2対象物追跡情報の一例を示している。同図における1レコードの第2対象物追跡情報は、1の施設利用者についての或る1の時刻に対応する情報となる。
The
The second target tracking
FIG. 3 shows an example of the second object tracking information stored in the second object tracking
1つの第2対象物追跡情報は、撮像装置識別子、第2対象物識別子、タイムスタンプ、推定位置座標、及び特徴量データの領域を含む。
撮像装置識別子の領域は、検出された施設利用者を検出した撮像装置10を示す撮像装置識別子を格納する。同図では、撮像装置10−1(図1)の撮像装置識別子として「10−1」を格納した例が示されている。
前述のように、複数の撮像装置10は、共用部PARにおいてそれぞれ異なる所定の場所を撮像するように設けられる。従って、撮像装置10を一意に示す撮像装置識別子によっては、対応の共用部PARにおける所定の場所が特定可能となる。つまり、撮像装置識別子は、対応の撮像装置10の撮像範囲に対応する共用部PARの所定の場所を示す位置情報として機能する。
第2対象物識別子の領域は、共用部PARにて検出された検出対象としての施設利用者に付与される第2対象物識別子を格納する。撮像装置10による施設利用者の検出では、個人が認識される。このため、第2対象物識別子は、認識された個人ごとに一意となるように施設利用者ごとに付与されるものであってよい。
タイムスタンプの領域は、施設利用者が検出された時刻を示すタイムスタンプを格納する。
推定位置座標の領域は、前述のようにして撮像画像に基づいて施設利用者(認識された個人)について推定された、共用部PAR内の位置座標が格納される。同図では、推定位置座標として、x軸方向、y軸方向及びz軸方向による三次元座標として表された例が示される。
特徴量データの領域は、検出対象としての施設利用者について、画像認識によって抽出された特徴量を示すデータ(特徴量データ)を格納する。特徴量データによっては、個人が識別可能とされる。
One piece of second object tracking information includes a region of the image pickup device identifier, the second object identifier, the time stamp, the estimated position coordinate, and the feature amount data.
The area of the imaging device identifier stores the imaging device identifier indicating the imaging device 10 that has detected the detected facility user. In the figure, an example is shown in which "10-1" is stored as the imaging device identifier of the imaging device 10-1 (FIG. 1).
As described above, the plurality of image pickup devices 10 are provided so as to pick up images at different predetermined locations in the common part PAR. Therefore, depending on the image pickup device identifier that uniquely indicates the image pickup device 10, it is possible to specify a predetermined place in the corresponding shared portion PAR. That is, the image pickup device identifier functions as position information indicating a predetermined location of the shared portion PAR corresponding to the image pickup range of the corresponding image pickup device 10.
The area of the second target object identifier stores the second target object identifier given to the facility user as the detection target detected by the shared portion PAR. An individual is recognized when the facility user is detected by the imaging device 10. Therefore, the second object identifier may be assigned to each facility user so as to be unique to each recognized individual.
The time stamp area stores a time stamp indicating the time when the facility user is detected.
In the area of the estimated position coordinate, the position coordinate in the shared part PAR estimated for the facility user (recognized individual) based on the captured image as described above is stored. In the figure, an example is shown in which the estimated position coordinates are expressed as three-dimensional coordinates in the x-axis direction, the y-axis direction, and the z-axis direction.
The area of the feature amount data stores data (feature amount data) indicating the feature amount extracted by image recognition for the facility user as the detection target. Individuals can be identified depending on the feature amount data.
なお、上記の例では、共用部PARにおける施設利用者の個人認識は、撮像画像の解析によって行われているが、例えば、共用部PARにおいて設けられる入退出設備の出入口に設けられる社員証等のICカード対応のカードリーダにより読み取られた、施設利用者個人に関する情報に基づいて行われてもよい。この場合、推定位置座標は、共用部PARにおいてカードリーダが設置された位置に基づいて推定されてよい。例えば、この場合の施設利用者の位置は、カードリーダが設置された位置と近似的に同じであるとして扱える。そこで、推定位置座標は、例えばカードリーダが設置された位置に基づいて予め定められた位置の座標とされてよい。この場合、推定位置座標は、一点としての座標を示してもよいし、ある程度の空間としての広さを有する座標範囲を示してもよい。 In the above example, the individual recognition of the facility user in the common area PAR is performed by analyzing the captured image. However, for example, the employee ID etc. provided at the entrance/exit of the entrance/exit facility provided in the common area PAR It may be performed based on the information about the individual facility user, which is read by a card reader compatible with an IC card. In this case, the estimated position coordinates may be estimated based on the position where the card reader is installed in the shared part PAR. For example, the position of the facility user in this case can be treated as being approximately the same as the position where the card reader is installed. Therefore, the estimated position coordinates may be, for example, the coordinates of a predetermined position based on the position where the card reader is installed. In this case, the estimated position coordinate may indicate the coordinate as one point, or may indicate the coordinate range having a certain extent of space.
図4は、物体検出対応追跡サーバ200の構成例を示している。同図の物体検出対応追跡サーバ200は、通信部201、制御部202、及び記憶部203を備える。
通信部201は、物体検出センサ20や統合追跡サーバ300と通信を行う。
制御部202は、物体検出対応追跡サーバ200における制御を実行する。制御部202としての機能は、物体検出対応追跡サーバ200が備えるCPUがプログラムを実行することによって実現される。制御部202は、第1対象物検出部221を備える。
第1対象物検出部221は、専有部TARに対応して設けられる物体検出センサ20によって得られる物体検出結果を利用して、専有部TARにおける施設利用者(対象物の一例)の検出と、検出された施設利用者の位置としての座標の検出とを行う。つまり、第1対象物検出部221は、専有部TARにおける施設利用者ごとの移動に対応して追跡を行うことができる。
また、第1対象物検出部221は、検出された施設利用者について認識された形状に基づいて、検出された施設利用者の属性を判定してもよい。
例えば、第1対象物検出部221は、検出された施設利用者について認識された形状に基づき、身長を推定する。推定された身長に応じて、第1対象物検出部221は、検出された施設利用者が「成人」の属性である、あるいは「子供」であるといったように判定してよい。
また、第1対象物検出部221は、認識された形状に基づき、施設利用者について、「ベビーカーをひいている」、「車いすに乗っている」、「倒れている」といった属性を判定するようにしてもよい。また、第1対象物検出部221は、複数人で一緒に行動している施設利用者のグループを認識し、グループについての認識結果を属性情報に含めてよい。このような属性の判定は、例えば機械学習により実現するようにされてよい。
FIG. 4 shows an example of the configuration of the object detection
The
The
The first
In addition, the first
For example, the first target
In addition, the first
記憶部203は、物体検出対応追跡サーバ200に対応する各種の情報を記憶する。記憶部203は、第1対象物追跡情報記憶部231を備える。
第1対象物追跡情報記憶部231は、第1対象物追跡情報を記憶する。第1対象物追跡情報は、専有部TARにおいて検出された追跡対象の施設利用者についての情報である。
The
The first target object tracking
図5は、第1対象物追跡情報記憶部231が例えばデータベース形式で記憶する第1対象物追跡情報の一例を示している。同図における1レコードの第1対象物追跡情報は、1の施設利用者についての或る1の時刻に対応する情報となる。
1つの第1対象物追跡情報は、検出装置識別子、第1対象物識別子、タイムスタンプ、対象物位置情報、及び属性情報の領域を含む。
検出装置識別子の領域は、検出された施設利用者を検出した物体検出センサ20を示す検出装置識別子を格納する。同図では、物体検出センサ20−1(図1)の検出装置識別子として「20−1」を格納した例が示されている。
例えば、検出装置識別子により、対応の専有部TARが特定可能となる。また、専有部TARに複数の物体検出センサ20が設けられる場合には、検出装置識別子により、専有部TARにおいて対応するエリア部分が特定可能となる。
第1対象物識別子の領域は、専有部TARにて検出された検出対象としての施設利用者に付与される第1対象物識別子を格納する。物体検出センサ20による施設利用者の検出では、個人が認識されないので、第1対象物識別子は、例えば、物体検出対応追跡サーバ200にて検出が開始された順に応じた通し番号等であってよい。
タイムスタンプの領域は、施設利用者が検出された時刻(タイムスタンプ)を格納する。
対象物位置情報の領域は、対応のタイムスタンプが示す時刻において検出された施設利用者の位置を座標により示す情報である、対象物位置情報を格納する。同図において、座標は、x軸方向、y軸方向及びz軸方向による三次元座標として表された例が示される。
属性情報の領域は、検出された施設利用者について第1対象物検出部221により判定された属性を示す属性情報を格納する。
FIG. 5 shows an example of the first object tracking information stored in the first object tracking
One piece of first object tracking information includes a detection device identifier, a first object identifier, a time stamp, object position information, and an area of attribute information.
The detection device identifier area stores a detection device identifier indicating the object detection sensor 20 that has detected the detected facility user. In the figure, an example in which “20-1” is stored as the detection device identifier of the object detection sensor 20-1 (FIG. 1) is shown.
For example, the corresponding exclusive unit TAR can be identified by the detection device identifier. When a plurality of object detection sensors 20 are provided in the exclusive portion TAR, the corresponding area portion in the exclusive portion TAR can be specified by the detection device identifier.
The area of the first target object identifier stores the first target object identifier given to the facility user as a detection target detected by the exclusive unit TAR. Since the individual is not recognized in the detection of the facility user by the object detection sensor 20, the first object identifier may be, for example, a serial number or the like according to the order in which the detection by the object
The time stamp area stores the time when the facility user was detected (time stamp).
The area of the object position information stores the object position information, which is information indicating the position of the facility user detected at the time indicated by the corresponding time stamp by coordinates. In the figure, an example is shown in which the coordinates are expressed as three-dimensional coordinates in the x-axis direction, the y-axis direction, and the z-axis direction.
The attribute information area stores attribute information indicating the attribute determined by the first
例えば、同図に示される第1対象物識別子「23869」の施設利用者が、次の時刻においても検出された場合には、新たに同じ第1対象物識別子「23869」の施設利用者の第1対象物追跡情報が生成され、第1対象物追跡情報記憶部231に記憶される。このように記憶される第1対象物追跡情報においては、「タイムスタンプ」の値が、現時刻に対応して更新されている。また、第1対象物検出部221は、検出される施設利用者に変化が生じたことに応じて、施設利用者についてこれまでと異なる属性であると判定結果を変更する場合がある。このような場合、第1対象物検出部221は、変更された属性が示されるように属性情報を更新してよい。なお属性情報を更新する場合も、取得された元データも保存し、履歴を後から振り返ることも可能である。
このように時刻ごとに対応して専有部TARの施設利用者が検出されるごとに第1対象物追跡情報が生成され、第1対象物追跡情報記憶部231に記憶されていく。このように記憶される第1対象物追跡情報のうち、同じ第1対象物識別子を格納する複数の第1対象物追跡情報によっては、タイムスタンプにより示される時刻ごとの専有部TARにおける施設利用者の位置が示されることになる。つまり、第1対象物追跡情報により専有部TARにおける施設利用者の移動軌跡が示されるものであり、専有部TARにおける施設利用者の追跡が実現されている。
For example, when the facility user with the first object identifier “23869” shown in the figure is detected at the next time as well, the facility user with the same first object identifier “23869” is newly added. One target tracking information is generated and stored in the first target tracking
As described above, the first object tracking information is generated and stored in the first object tracking
図6を参照して、統合追跡サーバ300の構成例について説明する。同図の統合追跡サーバ300は、通信部301、制御部302、及び記憶部303を備える。
通信部201は、物体検出センサ20や統合追跡サーバ300と通信を行う。
制御部202は、物体検出対応追跡サーバ200における制御を実行する。制御部202としての機能は、物体検出対応追跡サーバ200が備えるCPUがプログラムを実行することによって実現される。制御部202は、対象物管理部321を備える。
対象物管理部321は、専有部TARと共用部PARとの境界を移動した共通の施設利用者についての第1対象物追跡情報と第2対象物追跡情報とを、後述のようにして対応付ける。
A configuration example of the
The
The
The target
記憶部303は統合追跡サーバ300に対応する各種の情報を記憶する。記憶部303において、共通対象物情報記憶部331は、例えばデータベース形式で共通対象物情報を記憶する。共通対象物情報は、同じ施設利用者についての第1対象物識別子と第2対象物識別子とを対応付けた情報である。
図7は、共通対象物情報記憶部331が記憶する共通対象物情報の一例を示している。同図における1レコードが、施設利用者の共用部PARと専有部TARとの間の1回の移動に対応する共通対象物情報である。同図の共通対象物情報は、図4に示される第1対象物識別子「23869」の施設利用者と、図5に示される第2対象物識別子「U123456」の施設利用者とが同じ(共通)である場合の例を示している。
同図の共通対象物情報は、共通対象物識別子、第1対象物識別子、第2対象物識別子、及び対応確認タイムスタンプの領域を含む。
共通対象物識別子の領域は、対応の1の施設利用者に付与された第1対象物識別子と第2対象物識別子との双方に対応するものとして付与された共通対象物識別子を格納する。
第1対象物識別子の領域は、対応の1の施設利用者に付与された第1対象物識別子を格納する。
第2対象物識別子の領域は、対応の1の施設利用者に付与された第2対象物識別子を格納する。
対応確認タイムスタンプの領域は、対応の共通対象物情報が生成された時刻を格納する。本実施形態において、1の施設利用者に対応する共通対象物情報は、対応の施設利用者が共用部PARと専有部TARとの間を移動するごとに、統合追跡サーバ300の対象物管理部321によって新たに生成され、共通対象物情報記憶部331に記憶されていく。対応確認タイムスタンプは、このように対応の施設利用者が共用部PARと専有部TARとの間を移動することに応じて、対応の共通対象物情報が生成された時刻を示す。
The
FIG. 7 shows an example of common object information stored in the common object
The common object information in the figure includes areas of a common object identifier, a first object identifier, a second object identifier, and a correspondence confirmation time stamp.
The area of the common object identifier stores the common object identifier assigned as corresponding to both the first object identifier and the second object identifier given to the corresponding one facility user.
The area of the first object identifier stores the first object identifier assigned to the corresponding one facility user.
The area of the second object identifier stores the second object identifier given to the corresponding one facility user.
The area of the correspondence confirmation time stamp stores the time when the corresponding common object information is generated. In the present embodiment, the common object information corresponding to one facility user is the object management unit of the
図8を参照して、施設管理サーバ400の構成例について説明する。施設管理サーバ400は、通信部401、制御部402、及び記憶部403を備える。
通信部401は、統合追跡サーバ300や、施設FACにおいて制御対象となる設備500と通信を行う。
制御部402は、施設管理サーバ400における各種の制御を実行する。制御部402としての機能は、施設管理サーバ400が備えるCPUがプログラムを実行することにより実現される。制御部402は、設備制御部421を備える。設備制御部421は、施設FACにおいて設けられる設備500を制御する。
記憶部403は、施設管理サーバ400に関連する各種の情報を記憶する。
A configuration example of the
The
The
The
図9のフローチャートを参照して、本実施形態の撮像対応追跡サーバ100が、或る共用部PARにおける1つの撮像装置10の撮像画像に基づく施設利用者の追跡に対応して実行する処理手順例について説明する。
ステップS101:撮像対応追跡サーバ100において、第2対象物検出部121は、共用部PARに設けられた撮像装置10の撮像画像について画像認識を行うことで個人(施設利用者)の検出を行っている。そのうえで、第2対象物検出部121は、施設利用者の検出が開始されたか否かについて判定している。例えば、或る施設利用者が、他の場所から対応の共用部PAR内の場所に移動してくると、第2対象物検出部121は施設利用者の検出を開始することになる。
With reference to the flowchart of FIG. 9, an example of a processing procedure executed by the imaging-
Step S101: In the imaging-
ステップS102:ステップS101にて施設利用者の検出が開始されたことに応じて、検出が開始された施設利用者についての画像認識処理によって、特徴量データが得られる。そこで、第2対象物検出部121は、今回得られたのと同じ特徴量データを格納する第2対象物追跡情報(同一施設利用者(対象物)の第2対象物追跡情報)が第2対象物追跡情報記憶部131において、既に記憶されているか否かについて判定する。このため、第2対象物検出部121は、第2対象物追跡情報記憶部131から同一施設利用者の第2対象物追跡情報を検索する。
Step S102: In response to the start of the detection of the facility user in step S101, the feature amount data is obtained by the image recognition process for the facility user whose detection is started. Therefore, the second
ステップS103:ステップS102にて同一施設利用者の第2対象物追跡情報が第2対象物追跡情報記憶部131に記憶されていると判定された場合、今回検出された施設利用者は、今回検出されるより前において、対応の共用部PAR内の場所に存在していたことがある施設利用者である。
この場合の第2対象物検出部121は、ステップS102での判定処理に際して検索された同一施設利用者の第2対象物追跡情報に格納されていた第2対象物識別子を取得する。取得された第2対象物識別子は、今回の検出開始に応じて生成する第2対象物追跡情報に格納すべき第2対象物識別子である。
Step S103: When it is determined in step S102 that the second object tracking information of the same facility user is stored in the second object tracking
In this case, the second target
ステップS104:ステップS102にて、同一施設利用者の第2対象物追跡情報が第2対象物追跡情報記憶部131に未だ記憶されていないと判定された場合、検出が開始された施設利用者は、対応の共用部PAR内の場所に今回はじめて移動してきたことになる。
そこで、第2対象物検出部121は、検出が開始された施設利用者を示す第2対象物識別子を新規に発行する。
Step S104: When it is determined in step S102 that the second object tracking information of the same facility user is not yet stored in the second object tracking
Therefore, the second target
ステップS105:第2対象物検出部121は、検出が開始された施設利用者に対応する第2対象物追跡情報の生成を開始する。第2対象物検出部121は、以降において、一定の時間間隔ごとに第2対象物追跡情報を生成し、第2対象物追跡情報記憶部131に記憶させる。
第2対象物検出部121は、ステップS103の処理を経てステップS105の処理を実行する場合、以降において生成する第2対象物追跡情報に、ステップS103にて取得された第2対象物識別子を格納する。また、第2対象物検出部121は、ステップS104の処理を経てステップS105の処理を実行する場合、以降において生成する第2対象物追跡情報に、ステップS104にて発行した第2対象物識別子を格納する。
Step S105: The second
When executing the processing of step S105 after the processing of step S103, the second
ステップS106:第2対象物検出部121は、ステップS101にて検出が開始されて以降、第2対象物追跡情報記憶部131に記憶された第2対象物追跡情報を、所定タイミングごとに統合追跡サーバ300に送信する。第2対象物検出部121は、例えば一定時間ごとのタイミングで未送信の第2対象物追跡情報を送信してもよいし、所定数の未送信の第2対象物追跡情報が蓄積(バッファリング)されたタイミングで、未送信の第2対象物追跡情報を送信してもよい。
Step S106: The second
ステップS107:ステップS105の処理の後、第2対象物検出部121は、ステップS101にて検出が開始された施設利用者について、対応の共用部PAR内の場所にて検出が可能な状態から、検出が不可の状態に遷移するのを待機する。
ステップS108:ステップS201にて検出が開始された施設利用者について、対応の共用部PAR内の場所にて検出が不可の状態となると、第2対象物検出部121は、ステップS105から開始した第2対象物追跡情報の生成を停止する。
Step S107: After the process of step S105, the second
Step S108: When the facility user whose detection is started in step S201 becomes incapable of detection at a place in the corresponding shared portion PAR, the second
図10のフローチャートを参照して、本実施形態の物体検出対応追跡サーバ200が、専有部TARにおける1つの物体検出センサ20の物体検出情報に基づく施設利用者の追跡に対応して実行する処理手順例について説明する。
ステップS201:物体検出対応追跡サーバ200において、第1対象物検出部221は、専有部TARに設けられた物体検出センサ20の物体検出情報を利用して形状認識を行うことで、人(施設利用者)を検出している。そのうえで、第1対象物検出部221は、施設利用者の検出が開始されたか否かについて判定している。例えば、或る施設利用者が、他の場所から対応の専有部TARの場所に移動してくると、第1対象物検出部221は、施設利用者としての対象物の検出を開始することになる。
With reference to the flowchart of FIG. 10, a processing procedure executed by the object detection
Step S201: In the object detection
ステップS202:ステップS201にて施設利用者の検出が開始されると、第1対象物検出部221は、通し番号としての第1対象物識別子を新規に発行する。
ステップS203:第1対象物検出部221は、検出が開始された施設利用者に対応する第1対象物追跡情報の生成を開始する。第1対象物検出部221は、以降において、一定の時間間隔ごとに第1対象物検出部221を生成し、第1対象物追跡情報記憶部231に記憶させる。第2対象物検出部121は、生成する第1対象物追跡情報に、ステップS202により発行した第1対象物識別子を格納する。
ステップS204:第1対象物検出部221は、ステップS201にて検出が開始されて以降、第1対象物追跡情報記憶部231に記憶された第1対象物追跡情報を、所定タイミングごとに統合追跡サーバ300に送信する。
ステップS205:ステップS204の処理の後、第1対象物検出部221は、ステップS201にて検出が開始された施設利用者について、対応の専有部TAR内の場所にて検出が可能な状態から、検出が不可の状態に遷移するのを待機する。
ステップS206:ステップS201にて検出が開始された施設利用者について、対応の専有部TAR内の場所にて検出が不可の状態となると、第1対象物検出部221は、ステップS203から開始した第1対象物追跡情報の生成を停止する。
Step S202: When the detection of the facility user is started in step S201, the first
Step S203: The first
Step S204: The first target
Step S205: After the processing of step S204, the first
Step S206: When the facility user whose detection is started in step S201 becomes incapable of detection at a place in the corresponding exclusive section TAR, the first target
図11を参照して、統合追跡サーバ300が実行する処理手順例について説明する。
ステップS301:統合追跡サーバ300において対象物管理部321は、対象物追跡情報が受信されるのを待機している。つまり、対象物管理部321は、撮像対応追跡サーバ100から送信される第2対象物追跡情報が受信されるのを待機する。また、対象物管理部321は、物体検出対応追跡サーバ200から送信される第1対象物追跡情報が受信されるのを待機する。
An example of the processing procedure executed by the
Step S301: In the
ステップS302:対象物管理部321は、対象物追跡情報が受信されたことに応じて、受信された対象物追跡情報を記憶部303に記憶させる。
Step S302: The
ステップS303:対象物管理部321は、ステップS302により記憶された対象物追跡情報について、同一の施設利用者(対象物)の移動に対応する一対(ペア)の第1対象物追跡情報と第2対象物追跡情報とがあるか否かについて判定する。
対象物管理部321は、以下のペア成立条件が満たされる第1対象物追跡情報と第2対象物追跡情報を、同一の施設利用者(対象物)の移動に対応するペアとして判定する。
Step S303: The
The target
ペア成立条件としては、以下の3つの条件要素1、2、3をいずれも満たすことである。
条件要素1:第1対象物追跡情報と第2対象物追跡情報との組み合わせとして、一方の対象物追跡情報が施設利用者の検出の開始に応じて最初に生成されたものであり、他方の対象物追跡情報が、検出不可との判定に対応して生成が停止されたことで、最後に生成されたものであること。
条件要素2:第1対象物追跡情報と第2対象物追跡情報とのそれぞれに格納されるタイムスタンプが示す時刻の差が、同時刻とみなせる一定範囲内であること。
条件要素3:第1対象物追跡情報に格納される撮像装置識別子が示す撮像装置10の撮像範囲に対応する場所と、第1対象物追跡情報に格納される対象物位置情報が示す位置(座標)とが、専有部TARと共用部PARとの境界を移動する際の動線に対応していること。
このような条件要素3が満たされているか否かの判定のために、例えば撮像対応追跡サーバ100の記憶部103に、撮像装置10ごとの撮像範囲に対応する場所を示す場所情報を記憶させておき、対象物管理部321が、記憶された場所情報を参照するようにされてよい。
このような位置関係に関する条件要素3を加えることで、例えば共用部PARと専有部TARとの間を施設利用者が移動可能な場所(出入口)が複数あるような場合であっても、それぞれの出入口での施設利用者の移動に対応して、適切に同一の施設利用者の移動に対応するペアの第1対象物追跡情報と第2対象物追跡情報を判定できる。
一例として、施設利用者が、専有部TARから共用部PARに或る1つの出入口にて移動した場合、当該施設利用者については、専有部TARから出たことに応じて最後に生成された第1対象物追跡情報と、共用部PARに入ってきたことに応じて最初に生成された第2対象物追跡情報とが得られる。そして、最後に生成された第1対象物追跡情報と最後に生成された第2対象物追跡情報とは、それぞれ同時刻とみなせる時間差の時刻を示すタイムスタンプを格納している。また、第1対象物追跡情報に格納される対象物位置情報が示す座標と、第2対象物追跡情報に対応する撮像装置の場所情報とは、専有部TARと共用部PARとの境界を挟んで、出入口の位置に対応する同じ動線にある関係となる。
従って、上記のようなペア成立条件が満たされる第1対象物追跡情報と第2対象物追跡情報は、施設利用者が、或る特定の出入口にて専有部TARから共用部PARに移動した、もしくは共用部PARから専有部TARに移動したことに応じて得られるものにほかならない。
The pair establishment condition is to satisfy all of the following three
Condition element 1: As a combination of the first target tracking information and the second target tracking information, one target tracking information is first generated in response to the start of detection by the facility user, and the other target tracking information. The object tracking information is the last one generated when the generation is stopped in response to the determination that detection is impossible.
Conditional element 2: The difference between the times indicated by the time stamps stored in the first object tracking information and the second object tracking information is within a certain range that can be regarded as the same time.
Condition element 3: a location corresponding to the imaging range of the imaging device 10 indicated by the imaging device identifier stored in the first object tracking information, and a position (coordinates) indicated by the object position information stored in the first object tracking information. ) Corresponds to the flow line when moving the boundary between the exclusive part TAR and the common part PAR.
In order to determine whether or not the condition element 3 is satisfied, for example, the
Even if there are a plurality of places (doorways) where facility users can move between the shared part PAR and the exclusive part TAR, by adding the conditional element 3 relating to such a positional relationship, Corresponding to the movement of the facility user at the entrance/exit, it is possible to appropriately determine the first object tracking information and the second object tracking information of the pair corresponding to the movement of the same facility user.
As an example, when the facility user moves from the exclusive department TAR to the common area PAR at a certain entrance/exit, the facility user is generated lastly in response to having exited from the exclusive department TAR. One object tracking information and the second object tracking information initially generated in response to entering the common area PAR are obtained. The first object tracking information generated last and the second object tracking information finally generated store time stamps indicating the time differences that can be regarded as the same time. Further, the coordinates indicated by the object position information stored in the first object tracking information and the location information of the imaging device corresponding to the second object tracking information sandwich the boundary between the exclusive portion TAR and the common portion PAR. Then, the relationship is in the same flow line corresponding to the position of the doorway.
Therefore, regarding the first object tracking information and the second object tracking information satisfying the above-mentioned pair formation condition, the facility user moves from the exclusive section TAR to the common section PAR at a specific entrance/exit, Alternatively, it can be obtained only by moving from the shared part PAR to the exclusive part TAR.
ステップS304:対象物管理部321は、ステップS303にて、ペア成立条件を満たす第1対象物追跡情報と第2対象物追跡情報のペアがあると判定した場合、さらに以下の判定を行う。
つまり、対象物管理部321は、ステップS303にてペアとして判定されたうちの一方である第2対象物追跡情報が格納するのと同じ第2対象物識別子を格納する、同一施設利用者(対象物)の共通対象物情報が、既に共通対象物情報記憶部331に記憶されているか否かについて判定する。
ステップS305:ステップS304にて、同一施設利用者(対象物)の共通対象物情報が、未だ共通対象物情報記憶部331に記憶されていないと判定された場合、対象物管理部321は、共通対象物情報を新規に発行する。
ステップS306:一方、ステップS304にて、同一施設利用者(対象物)の共通対象物情報が、既に共通対象物情報記憶部331に記憶されていると判定された場合、対象物管理部321は、既に共通対象物情報記憶部331に記憶されている同一施設利用者(対象物)の共通対象物情報の共通対象物識別子を取得する。
ステップS307:ステップS305またはステップS306の処理の後、対象物管理部321は、共通対象物情報を生成する。生成された共通対象物情報には、ステップS303にてペアであると判定された第1対象物追跡情報と第2対象物追跡情報とのそれぞれに格納される第1対象物識別子と第2対象物識別子とが含まれる。また、生成された共通対象物情報には、ステップS305またはステップS306によって得られた共通対象物識別子が格納される。また、生成された共通対象物情報には、例えば今回の共通対象物情報の生成タイミングに対応する時刻を示す対応確認タイムスタンプが格納される。なお、対応確認タイムスタンプは、例えば、ステップS303にてペアであると判定された第1対象物追跡情報と第2対象物追跡情報とのそれぞれに格納されるタイムスタンプが示す時刻に基づいた時刻とされてよい。
ステップS308:対象物管理部321は、ステップS307により生成された共通対象物情報を、共通対象物情報記憶部331に記憶させる。
Step S304: If the
That is, the target
Step S305: When it is determined in step S304 that the common object information of the same facility user (object) is not yet stored in the common object
Step S306: On the other hand, when it is determined in step S304 that the common target object information of the same facility user (target object) is already stored in the common target object
Step S307: After the processing of step S305 or step S306, the
Step S308: The target
このように、図9〜図11の処理が実行されることで、同じ1の施設利用者について、共用部PARでの検出結果を示す第2対象物追跡情報と、専有部TARでの検出結果を示す第1対象物追跡情報との対応付けが、共通対象物情報によって為されることになる。つまり、施設FACにおいて共用部PARと専有部との間を移動する施設利用者の追跡が可能となる。 In this way, by executing the processing of FIGS. 9 to 11, for the same one facility user, the second object tracking information indicating the detection result in the common part PAR and the detection result in the exclusive part TAR. Correspondence with the first target object tracking information indicating is indicated by the common target object information. That is, in the facility FAC, it is possible to track the facility user who moves between the shared part PAR and the exclusive part.
例えば、統合追跡サーバ300もしくは施設管理サーバ400は、上記のようにして得られ第1対象物追跡情報、第2対象物追跡情報、共通対象物情報に基づき、施設FACにおける施設利用者ごとの追跡結果を示す情報(施設内利用者追跡情報)を得ることができる。このような施設内利用者追跡情報に基づいては、施設FACにおける施設利用者ごとの移動軌跡や、施設FACにおける現在及び過去の施設FACにおける施設利用者の分布を把握できる。
For example, the
そこで、例えば施設管理サーバ400の設備制御部421は、施設内利用者追跡情報に基づいて、例えば施設FACにおける所定の設備を制御することができる。
一具体例として、設備制御部421は、施設FACにおけるエリアごとにおける人数を判定し、判定された人数に応じて、エリアごとに空調機器の制御を行うことができる。
また、設備制御部421は、施設FACにおけるデジタルサイネージのための表示装置の近傍に施設利用者が存在していると判定したことに応じて、当該施設利用者に向けて広告、その他のコンテンツを表示するように、表示装置としての設備500を制御することができる。このように設備500を制御するにあたっては、例えば、対応の施設利用者についての属性情報(図5)が取得されている場合には、属性情報が示す属性に対応した内容の表示が表示装置によって行われるように制御してよい。また、表示装置の近傍の施設利用者の属性に応じて特定される施設利用者の目線の高さに応じて、表示装置におけるコンテンツの表示位置を、施設利用者が見やすくなるように変更してよい。具体的には、設備制御部421は、属性情報が「成人」であることを示す場合には、平均的な成人の身長に対応させた目線にあわせた表示とし、属性情報が「子供」や「車いすに乗っている」といったこと示す場合には、平均的な低めの目線にあわせた表示となるように制御してよい。
また、設備制御部421は、「倒れている」といった属性情報が得られたことに応じて、所定の報知先に、急病人の発生したことを、急病人の発生したエリアに関する情報も含めて報知するようにしてよい。
また、設備制御部421は、例えば共用部PARにおいて撮像装置10により画像認識を行った結果、顔について個人認識ができない施設利用者については、不審者に分類するとともに、例えば警備の端末装置に不審者の存在を報知するようにしてよい。
また、施設内利用者追跡情報は、例えば施設FACの運営者が、所定の機会で参照し、施設FACにおける各種の施策検討に用いることができる。
Therefore, for example, the
As a specific example, the
In addition, the
In addition, the
Further, the
Further, the in-facility user tracking information can be referred to by an operator of the institution FAC at a predetermined opportunity, and can be used for studying various measures in the institution FAC.
なお、上記実施形態では、共用部PARと専有部TARとの間を移動した施設利用者についての移動前と移動後の対象物追跡情報とを対応付けるにあたってはペア成立条件として条件要素1、2、3を全て満たす場合を例に挙げた。つまり、この場合には、移動前の区分エリアでの施設利用者の最後の検出に対応する対象物追跡情報と、移動後の区分エリアでの施設利用者の検出開始に対応する対象物追跡情報との、それぞれが示す位置の関係と、時刻の関係とに基づいて、対応付けが行われていた。
しかしながら、例えば、共用部PARと専有部TARとの間で移動可能な場所が1箇所に限定されており、その移動可能な場所では一度に施設利用者が一人しか出入りできないような状況であれば、自ずと位置については限定される。そこで、このような場合には、位置の関係性に関する条件要素3については省略し、条件要素1、2が成立したことに応じて、移動前と移動後の対象物追跡情報とを対応付けるようにされてもよい。
また、物体検出対応追跡サーバ200による第1対象物追跡情報の処理と撮像対応追跡サーバ100による第2対象物追跡情報の処理と、統合追跡サーバ300による共通対象物情報の生成は、ほぼリアルタイムとみてよいタイミングで実行できる。このことを考慮すれば、統合追跡サーバ300の対象物管理部321は、タイムスタンプが示す時刻の対応関係(条件要素2)を確認することなく、随時、条件要素1、2を満たすことが判定された第1対象物追跡情報と第2対象物追跡情報とを対応付けて共通対象物情報を生成するようにされてよい。
In the above embodiment, in associating the object tracking information before and after the movement for the facility user who has moved between the shared portion PAR and the exclusive portion TAR,
However, for example, in a situation where the common area PAR and the exclusive area TAR can be moved to only one place and only one facility user can go in and out at a time in the movable place. However, the position is naturally limited. Therefore, in such a case, the condition element 3 relating to the positional relationship is omitted, and the object tracking information before the movement and the object tracking information after the movement are associated with each other in accordance with the satisfaction of the
Further, the processing of the first object tracking information by the object detection
なお、本実施形態の追跡システムの構成は、建物の用途について特に限定されることなく適用可能である。本実施形態の追跡システムの構成は、例えば、オフィスビル、ショッピングモールのほか、病院施設等をはじめ他の用途の施設にも適用できる。 The configuration of the tracking system of the present embodiment can be applied without any particular limitation on the use of the building. The configuration of the tracking system of the present embodiment can be applied to, for example, office buildings, shopping malls, facilities for other purposes such as hospital facilities, and the like.
なお、本実施形態の追跡システムが追跡の対象とする対象物は、例えば特定の動物、荷物など人以外であってもよい。 The object to be tracked by the tracking system of this embodiment may be a person other than a person such as a specific animal or luggage.
なお、本実施形態における1の施設利用者についての追跡は、例えば1日ごと、1営業日における所定の時間帯区分ごと、といったように、所定の時間区分ごとに区切るようにして、対象物追跡情報を管理するように実行されてよい。この場合、撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300は、例えば所定の時間帯区分の開始に応じて、先の時間帯区分にて検出されていた施設利用者についても、新規に検出された施設利用者として処理して、第1対象物追跡情報、第2対象物追跡情報、及び共通対象物情報を生成していくようにされてよい。
The tracking of one facility user in the present embodiment is performed by dividing the object into predetermined time segments, for example, every day, every predetermined time zone in one business day. It may be implemented to manage information. In this case, the imaging-
なお、上記実施形態においては、撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300がそれぞれ独立した個別のサーバとされた構成を示した。しかしながら、これらのサーバのうちの少なくとも一部が統合された1つのサーバとして構成されてもよい。
In the above embodiment, the imaging
なお、上述の撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300や施設管理サーバ400等としての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の撮像対応追跡サーバ100、物体検出対応追跡サーバ200、統合追跡サーバ300や施設管理サーバ400等としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。
It should be noted that a program for realizing the functions of the above-described imaging
10(10−1、10−2) 撮像装置、20 物体検出センサ、100 撮像対応追跡サーバ、121 第2対象物検出部、131 第2対象物追跡情報記憶部、200 物体検出対応追跡サーバ、221 第1対象物検出部、231 第1対象物追跡情報記憶部、300 統合追跡サーバ、321 対象物管理部、331 共通対象物情報記憶部、400 施設管理サーバ、500 設備 10 (10-1, 10-2) imaging device, 20 object detection sensor, 100 imaging compatible tracking server, 121 second object detection unit, 131 second object tracking information storage unit, 200 object detection compatible tracking server, 221 First object detection unit, 231 First object tracking information storage unit, 300 Integrated tracking server, 321 Object management unit, 331 Common object information storage unit, 400 Facility management server, 500 facilities
Claims (7)
施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出部と、
前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理部と
を備える追跡システム。 A first object based on the result of detection of the object based on the detection information of the object detection sensor provided corresponding to the first type of area in the facility and detection of the position of the detected object A first object detection unit that generates tracking information,
Based on the image recognition processing using the imaged image obtained by the imaging device provided corresponding to the second type of divided area in the facility, the target object in the second type of divided area is detected. A second object detection unit that generates second object tracking information based on the detection result,
An object management unit that associates the first object tracking information and the second object tracking information of the same object that has moved the boundary between the first type of segmented area and the second type of segmented area, Tracking system equipped.
請求項1に記載の追跡システム。 The object management unit stores an object identifier stored as information for identifying an object in each of the first object tracking information and the second object tracking information of the same object having a corresponding relationship. The tracking system according to claim 1, wherein the common object information is associated with each other.
請求項1または2に記載の追跡システム。 The object management unit, within a certain range of time, the object tracking information corresponding to the one type of divided area where the object was finally detected in the one type of divided area before the movement, and the movement. The tracking system according to claim 1, wherein the tracking system is associated with target object tracking information corresponding to the other type of segmented area where detection of an object has started in the other type of segmented area.
請求項1から3のいずれか一項に記載の追跡システム。 The object management unit, the position of the object shown in the object tracking information generated in response to the last detection of the object in one type of divided area before movement, and the other of the after movement If the relationship with the position of the object indicated in the object tracking information generated in response to the start of detection of the object in the classification area of the type satisfies a predetermined condition, the classification area of the one type The tracking system according to any one of claims 1 to 3, wherein the object tracking information corresponding to the item is associated with the object tracking information corresponding to the other type of segmented area.
請求項1から4のいずれか一項に記載の追跡システム。 The first object detection unit determines an attribute of the detected object based on the detection result, and associates attribute information indicating the determined attribute with the detected object. The tracking system according to 1 above.
施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出ステップと、
前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理ステップと
を備える追跡処理方法。 A first object based on the result of detection of the object based on the detection information of the object detection sensor provided corresponding to the first type of area in the facility and detection of the position of the detected object A first object detection step of generating tracking information,
Based on the image recognition processing using the imaged image obtained by the imaging device provided corresponding to the second type of divided area in the facility, the target object in the second type of divided area is detected. A second object detection step of generating second object tracking information based on the detection result,
An object management step of associating the first object tracking information and the second object tracking information of the same object that has moved the boundary between the first type of segmented area and the second type of segmented area. Tracking method provided.
施設における区分エリアのうちの第1種別の区分エリアに対応して設けられる物体検出センサの検出情報に基づく対象物の検出と検出された対象物の位置の検出との結果に基づく第1対象物追跡情報を生成する第1対象物検出部、
施設における区分エリアのうちの第2種別の区分エリアに対応して設けられる撮像装置によって得られた撮像画像を利用した画像認識処理に基づいて、第2種の区分エリアにおける対象物の検出を行い、検出結果に基づく第2対象物追跡情報を生成する第2対象物検出部、
前記第1種別の区分エリアと前記第2種別の区分エリアとの境界を移動した同一の対象物の前記第1対象物追跡情報と前記第2対象物追跡情報とを対応付ける対象物管理部
として機能させるためのプログラム。 A computer equipped in the tracking system,
A first object based on the result of detection of the object based on the detection information of the object detection sensor provided corresponding to the first type of area in the facility and detection of the position of the detected object A first object detection unit that generates tracking information,
Based on the image recognition processing using the imaged image obtained by the imaging device provided corresponding to the second type of divided area in the facility, the target object in the second type of divided area is detected. A second object detection unit that generates second object tracking information based on the detection result,
Functioning as an object management unit that associates the first object tracking information and the second object tracking information of the same object that has moved along the boundary between the first type section area and the second type section area A program to let you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241441A JP2020102135A (en) | 2018-12-25 | 2018-12-25 | Tracking system, tracking processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018241441A JP2020102135A (en) | 2018-12-25 | 2018-12-25 | Tracking system, tracking processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020102135A true JP2020102135A (en) | 2020-07-02 |
Family
ID=71139688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018241441A Pending JP2020102135A (en) | 2018-12-25 | 2018-12-25 | Tracking system, tracking processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020102135A (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146378A (en) * | 2004-11-17 | 2006-06-08 | Hitachi Ltd | Monitoring system using multiple camera |
US20100048242A1 (en) * | 2008-08-19 | 2010-02-25 | Rhoads Geoffrey B | Methods and systems for content processing |
JP2010108037A (en) * | 2008-10-28 | 2010-05-13 | Nec System Technologies Ltd | Action tracking system, action tracking method, and action tracking program |
JP2011193187A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Monitoring camera terminal |
JPWO2010044186A1 (en) * | 2008-10-17 | 2012-03-08 | パナソニック株式会社 | Flow line creation system, flow line creation device, and three-dimensional flow line display device |
JPWO2011021588A1 (en) * | 2009-08-20 | 2013-01-24 | 日本電気株式会社 | Moving body trajectory identification system |
JP5683663B1 (en) * | 2013-09-27 | 2015-03-11 | パナソニックIpマネジメント株式会社 | Residence time measuring device, residence time measuring system, and residence time measuring method |
JP2015088816A (en) * | 2013-10-29 | 2015-05-07 | セコム株式会社 | Image monitoring system |
JPWO2013128852A1 (en) * | 2012-02-29 | 2015-07-30 | 日本電気株式会社 | Flow line information generation system, flow line information generation method, and flow line information generation program |
JP2018093283A (en) * | 2016-11-30 | 2018-06-14 | マクセル株式会社 | Monitoring information gathering system |
-
2018
- 2018-12-25 JP JP2018241441A patent/JP2020102135A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146378A (en) * | 2004-11-17 | 2006-06-08 | Hitachi Ltd | Monitoring system using multiple camera |
US20100048242A1 (en) * | 2008-08-19 | 2010-02-25 | Rhoads Geoffrey B | Methods and systems for content processing |
JPWO2010044186A1 (en) * | 2008-10-17 | 2012-03-08 | パナソニック株式会社 | Flow line creation system, flow line creation device, and three-dimensional flow line display device |
JP2010108037A (en) * | 2008-10-28 | 2010-05-13 | Nec System Technologies Ltd | Action tracking system, action tracking method, and action tracking program |
JPWO2011021588A1 (en) * | 2009-08-20 | 2013-01-24 | 日本電気株式会社 | Moving body trajectory identification system |
JP2011193187A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Monitoring camera terminal |
JPWO2013128852A1 (en) * | 2012-02-29 | 2015-07-30 | 日本電気株式会社 | Flow line information generation system, flow line information generation method, and flow line information generation program |
JP5683663B1 (en) * | 2013-09-27 | 2015-03-11 | パナソニックIpマネジメント株式会社 | Residence time measuring device, residence time measuring system, and residence time measuring method |
JP2015088816A (en) * | 2013-10-29 | 2015-05-07 | セコム株式会社 | Image monitoring system |
JP2018093283A (en) * | 2016-11-30 | 2018-06-14 | マクセル株式会社 | Monitoring information gathering system |
Non-Patent Citations (3)
Title |
---|
JOHN SHACKLETON, BRIAN VAN VOORST, JOEL HESCH: "Tracking People with a 360-Degree Lidar", 2010 7TH IEEE INTERENATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE, JPN6022044579, 29 August 2010 (2010-08-29), US, pages 420 - 426, XP031772055, ISSN: 0004903672 * |
横田 隆之, 黒田 洋司: "LIDARを用いた形状的特徴による人認識", ロボティクス・メカトロニクス講演会講演概要集, vol. 2014巻(2014), セッション3P1-K04, JPN6022044578, 24 May 2014 (2014-05-24), JP, pages 1 - 4, ISSN: 0004903671 * |
野村 温: "モバイルエージェント技術を用いた人物追跡システム −複数システムを跨がった人物追跡手法の提案−", FIT2013 第12回情報科学技術フォーラム 講演論文集 第4分冊 査読付き論文・一般論文 ネット, JPN6022031724, 20 August 2013 (2013-08-20), JP, pages 247 - 250, ISSN: 0004839472 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11157778B2 (en) | Image analysis system, image analysis method, and storage medium | |
JP5871296B1 (en) | Smart security digital system, method and program | |
JP6286394B2 (en) | Image surveillance system | |
JP6885682B2 (en) | Monitoring system, management device, and monitoring method | |
JP2018173914A (en) | Image processing system, imaging apparatus, learning model creation method, and information processing device | |
KR101788269B1 (en) | Method and apparatus for sensing innormal situation | |
WO2018180588A1 (en) | Facial image matching system and facial image search system | |
US9292939B2 (en) | Information processing system, information processing method and program | |
US9336444B2 (en) | System and method for occupancy detection using differential image sensing and optical markers | |
JP2011039959A (en) | Monitoring system | |
EP3355282B1 (en) | System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device | |
KR20100010325A (en) | Method for tracking object | |
JP2018201176A (en) | Alert output control program, alert output control method, and alert output control apparatus | |
JP5202419B2 (en) | Security system and security method | |
JP7149063B2 (en) | Monitoring system | |
JP2009194711A (en) | Region user management system and management method of the same | |
KR20170007070A (en) | Method for visitor access statistics analysis and apparatus for the same | |
JP5712401B2 (en) | Behavior monitoring system, behavior monitoring program, and behavior monitoring method | |
JP2020102135A (en) | Tracking system, tracking processing method, and program | |
WO2022059223A1 (en) | Video analyzing system and video analyzing method | |
WO2020170643A1 (en) | Information processing device, information processing system, information processing method, and program | |
Bouma et al. | Integrated roadmap for the rapid finding and tracking of people at large airports | |
JP7389955B2 (en) | Information processing device, information processing method and program | |
EP2270761A1 (en) | System architecture and process for tracking individuals in large crowded environments | |
KR20220004399A (en) | A recorded program media for providing a security surveillance service based on user involvement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211028 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221025 |