JP2020173775A - Object detector and congestion state management device - Google Patents

Object detector and congestion state management device Download PDF

Info

Publication number
JP2020173775A
JP2020173775A JP2019218477A JP2019218477A JP2020173775A JP 2020173775 A JP2020173775 A JP 2020173775A JP 2019218477 A JP2019218477 A JP 2019218477A JP 2019218477 A JP2019218477 A JP 2019218477A JP 2020173775 A JP2020173775 A JP 2020173775A
Authority
JP
Japan
Prior art keywords
image
person
area
detected
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019218477A
Other languages
Japanese (ja)
Other versions
JP6746154B1 (en
Inventor
宗隆 水谷
Munetaka Mizutani
宗隆 水谷
梢 木原
Kozue Kihara
梢 木原
流 田巻
Ryu Tamaki
流 田巻
知行 本田
Tomoyuki Honda
知行 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vacan Inc
Original Assignee
Vacan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vacan Inc filed Critical Vacan Inc
Application granted granted Critical
Publication of JP6746154B1 publication Critical patent/JP6746154B1/en
Publication of JP2020173775A publication Critical patent/JP2020173775A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To optimize a hyper parameter relating to the accuracy of object detection.SOLUTION: An object detector pertaining to the present invention comprises: storage means in which a first threshold and a second threshold larger than the first threshold are stored; acquisition means for acquiring an image; detection means for detecting a prescribed object existing in a space on the basis of the image; calculation means for calculating, for each of the prescribed objects detected, a value that indicates the likelihood of the prescribed object being existent; determination means for determining a congestion area, out of the areas in the image, in which a greater number of the prescribed objects than a prescribed count are detected; first detection means for detecting an object, among the prescribed objects detected in the congestion area, the value of which is larger than the first threshold; and second detection means for detecting an object, among the prescribed objects detected in a non-congestion area, except the congestion area, out of the areas in the image, the value of which is larger than the second threshold.SELECTED DRAWING: Figure 9

Description

本発明は、物体検出装置及び混雑状況管理装置
に関する。
The present invention relates to an object detection device and a congestion status management device.

従来より、商業施設等の空席管理システムが知られている。例えば特許文献1には、複合商業施設(ショッピングモール)のエントランス広場付近などで配置されるデジタルサイネージにおいて、各店舗の混雑状況を表示するデジタルサイネージ制御装置が記載されている。監視対象店舗毎に設置される監視機器30は、人感を検知するセンサー30a、人の存在を画像解析するカメラ30bなどの各空席検知デバイスと接続されており、ネットワーク40を介してクラウド上の制御サーバ10に対して、監視対象店舗の空席情報を送信する。 Conventionally, vacant seat management systems for commercial facilities and the like have been known. For example, Patent Document 1 describes a digital signage control device that displays a congestion status of each store in a digital signage arranged near an entrance plaza of a commercial complex (shopping mall). The monitoring device 30 installed in each monitored store is connected to each vacant seat detection device such as a sensor 30a for detecting human feeling and a camera 30b for image analysis of the presence of a person, and is on the cloud via the network 40. The vacant seat information of the monitored store is transmitted to the control server 10.

また、特許文献2には、1台のカメラで混雑状況の判別ができ、よりリアルタイム性を確保できる混雑情報提供システムが記載されている。混雑情報提供システムは、混雑状況を観測するための定点カメラ10と、定点カメラ10に接続された混雑情報演算装置20と、混雑情報を表示する情報表示装置40とを備える。混雑情報演算装置20は、定点カメラ10が撮影した画像に含まれる人物領域を検出するための人物検出手段と、人物検出手段が検出した人物領域に基づいて前記画像中の人物の数を計測する計測手段と、前記計測手段の計測結果に基づく混雑情報を利用者に提供する提供手段と、を備える。 Further, Patent Document 2 describes a congestion information providing system that can determine the congestion status with one camera and can secure more real-time performance. The congestion information providing system includes a fixed-point camera 10 for observing a congestion situation, a congestion information calculation device 20 connected to the fixed-point camera 10, and an information display device 40 for displaying congestion information. The congestion information calculation device 20 measures the number of people in the image based on the person detecting means for detecting the person area included in the image captured by the fixed point camera 10 and the person area detected by the person detecting means. It includes a measuring means and a providing means for providing a user with congestion information based on the measurement result of the measuring means.

特許第6153177号公報Japanese Patent No. 6153177 特開2007−201556号公報JP-A-2007-201556

特許文献1に記載されるような空席管理システムや特許文献2に記載されるような混雑情報提供システムを用いて、例えば複合商業施設におけるフードコートの混雑状況を管理する場合、人の存在を画像解析するカメラで画像を撮像し、画像中の人物の数を計測し、計測結果に基づいて混雑情報を利用者に対して提供することができる。 When managing the congestion status of a food court in a complex commercial facility by using a vacant seat management system as described in Patent Document 1 or a congestion information providing system as described in Patent Document 2, the presence of a person is imaged. It is possible to take an image with the camera to be analyzed, measure the number of people in the image, and provide congestion information to the user based on the measurement result.

画像中の人物を検知するに際し、人物検出の精度は、一般に機械学習アルゴリズムの挙動を制御するためのハイパーパラメータ(閾値)により調整可能である。機械学習で使われるモデルには、機械学習で学習されず分析者が設定しなければならないパラメータがあり、これはハイパーパラメータと呼ばれる。 When detecting a person in an image, the accuracy of the person detection can generally be adjusted by a hyperparameter (threshold value) for controlling the behavior of a machine learning algorithm. Models used in machine learning have parameters that are not learned by machine learning and must be set by the analyst, which are called hyperparameters.

人物検出精度に関するハイパーパラメータを低く調整すると、人検知はしやすいが、検知結果が確かに人であるという精度は低くなる。つまり人以外の物体等も人として検知しやすくなる。一方、このハイパーパラメータを高く調整すると、人検知は検知しにくいが、検知結果が確かに人であるという精度は高くなる。つまり人以外の物体等は人として検知しにくくなる。 If the hyperparameters related to the person detection accuracy are adjusted low, it is easy to detect the person, but the accuracy that the detection result is certainly a person is low. That is, it becomes easier to detect objects other than humans as humans. On the other hand, if this hyperparameter is adjusted high, it is difficult to detect a person, but the accuracy that the detection result is certainly a person becomes high. That is, it becomes difficult for a person to detect an object other than a person.

実際、ハイパーパラメータを調整する方法は、例えば、良さそうな値を総当たりで入れてみてモデルを作り、その結果を比較して、良さそうな値の中からさらに良さそうな値を選び出すことで可能となる。 In fact, the way to adjust hyperparameters is, for example, to create a model by brute force the values that look good, compare the results, and select the values that look better from the values that look good. It will be possible.

しかしながら、フードコートのような施設において、行列をなして混んでいる店舗と空いている店舗がある場合に、その画像中においては、人が混雑している混雑エリアと、そうでない非混雑エリアとが存在する。このため、画像中の混雑エリアにおいては、例えば人物同士が密集し重なっていたりするなどして画像中に人物の一部しか表れていないと、どうしても人物検出の精度は低くなる。一方、非混雑エリアにおいては、画像中に人物の大部分が表われやすく、人物検出の精度は高くなるという特徴がある。 However, in a facility such as a food court, when there are stores that are crowded in a line and stores that are vacant, in the image, there are crowded areas where people are crowded and non-crowded areas where they are not. Exists. Therefore, in a congested area in an image, if only a part of the person appears in the image, for example, the people are densely overlapped with each other, the accuracy of the person detection is inevitably low. On the other hand, in a non-crowded area, most of the people are likely to appear in the image, and the accuracy of person detection is high.

よって、画像中において人が混雑している混雑エリアと、そうでない非混雑エリアとがある場合に、ハイパーパラメータを高く調整すると、混雑エリアでも人検知はしやすいが、画像中の検知結果が確かに人であるという精度は低くなる反面、ハイパーパラメータを低く調整しすぎると、画像中の特に混雑エリアでほとんど人が検知されにくくなってしまうという問題がある。 Therefore, if there is a crowded area in the image where people are crowded and a non-crowded area where it is not, if the hyperparameters are adjusted high, it is easy to detect people even in the crowded area, but the detection result in the image is certain. On the other hand, if the hyperparameters are adjusted too low, it becomes difficult to detect people, especially in a congested area in the image.

本発明は、上記の点に鑑み提案されたものであり、一つの側面では、物体検出精度に関するハイパーパラメータの最適化を図ることを目的とする。 The present invention has been proposed in view of the above points, and one aspect of the present invention is to optimize hyperparameters related to object detection accuracy.

上記の課題を解決するため、本発明に係る物体検出装置は、所定のスペースに存在する所定の物体を、前記スペースの画像に基づいて検出する物体検出装置であって、第1閾値と、該第1閾値よりも大きい第2閾値とを記憶した記憶手段と、前記画像を取得する取得手段と、前記スペースに存在する所定の物体を、前記画像に基づいて検知する検知手段と、検知された前記所定の物体毎に、該所定の物体が存在する確からしさを示す値を算出する算出手段と、前記画像中の領域のうち、所定数以上の前記所定の物体が検知された混雑エリアを判定する判定手段と、前記混雑エリア内で検知された前記所定の物体のうち、前記値が前記第1閾値よりも大きい物体を検出する第1検出手段と、前記画像中の領域のうち前記混雑エリアを除く非混雑エリア内で検知された前記所定の物体のうち、前記値が前記第2閾値よりも大きい物体を検出する第2検出手段と、を有する。 In order to solve the above problems, the object detection device according to the present invention is an object detection device that detects a predetermined object existing in a predetermined space based on an image of the space, and has a first threshold value and the said. A storage means for storing a second threshold value larger than the first threshold value, an acquisition means for acquiring the image, and a detection means for detecting a predetermined object existing in the space based on the image were detected. For each of the predetermined objects, a calculation means for calculating a value indicating the certainty that the predetermined object exists, and a congested area in which a predetermined number or more of the predetermined objects are detected in the area in the image are determined. A determination means for detecting an object whose value is larger than the first threshold value among the predetermined objects detected in the congestion area, and the congestion area in the area in the image. It has a second detecting means for detecting an object whose value is larger than the second threshold among the predetermined objects detected in the non-congested area excluding the above.

本発明の実施の形態によれば、物体検出精度に関するハイパーパラメータの最適化を図ることができる。 According to the embodiment of the present invention, it is possible to optimize the hyperparameters related to the object detection accuracy.

本実施形態に係る混雑状況管理システムの構成例を示す図である。It is a figure which shows the configuration example of the congestion situation management system which concerns on this embodiment. 本実施形態に係る管理サーバのハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the management server which concerns on this embodiment. 本実施形態に係る管理サーバのソフトウェア構成例を示す図である。It is a figure which shows the software configuration example of the management server which concerns on this embodiment. 本実施形態に係る混雑状況管理DBのデータ例を示す図である。It is a figure which shows the data example of the congestion situation management DB which concerns on this embodiment. 本実施形態に係るデジタルサイネージの表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the digital signage which concerns on this embodiment. 本実施形態に係るサンプル画像(その1)を示す図である。It is a figure which shows the sample image (the 1) which concerns on this embodiment. 本実施形態に係るサンプル画像(その2)を示す図である。It is a figure which shows the sample image (the 2) which concerns on this embodiment. 本実施形態に係る人検知理を示すフローチャート図である。It is a flowchart which shows the person detection process which concerns on this embodiment. 本実施形態に係る人出知理を示すフローチャート図である。It is a flowchart which shows the person's knowledge which concerns on this embodiment. 本実施形態に係るフードコート画像に基づく検出結果の一例を示す。An example of the detection result based on the food court image according to this embodiment is shown. 本実施形態に係る保安検査場画像に基づく検出結果の一例を示す。An example of the detection result based on the security checkpoint image according to this embodiment is shown.

本発明の実施の形態について、図面を参照しつつ詳細に説明する。 Embodiments of the present invention will be described in detail with reference to the drawings.

<システム構成>
(ネットワーク構成)
図1は、本実施形態に係る混雑状況管理システムの構成例を示す図である。図1の混雑状況管理システム100は、管理サーバ10、デジタルサイネージ20a、携帯端末20b、カメラ31、及びGW(gateway)32がネットワーク50を介して接続されている。
<System configuration>
(Network configuration)
FIG. 1 is a diagram showing a configuration example of a congestion status management system according to the present embodiment. In the congestion status management system 100 of FIG. 1, a management server 10, a digital signage 20a, a mobile terminal 20b, a camera 31, and a GW (gateway) 32 are connected via a network 50.

管理サーバ10は、カメラ31により撮像された画像に基づいて、施設30の混雑状況を判定し、デジタルサイネージ20a及び携帯端末20bといった表示装置に、施設30の混雑状況情報を配信する装置である。配信された混雑状況情報はデジタルサイネージ20a及び携帯端末20bのディスプレイ上に表示される。 The management server 10 is a device that determines the congestion status of the facility 30 based on the image captured by the camera 31 and distributes the congestion status information of the facility 30 to display devices such as the digital signage 20a and the mobile terminal 20b. The delivered congestion status information is displayed on the displays of the digital signage 20a and the mobile terminal 20b.

デジタルサイネージ20aは、施設エントランス、フロア案内壁面などに設置された液晶ディスプレイなどの映像表示装置である。デジタルサイネージ20aは、ネットワーク50を介してクラウド上の管理サーバ10と接続され、施設30の混雑状況情報を表示する。 The digital signage 20a is an image display device such as a liquid crystal display installed on a facility entrance, a floor guide wall surface, or the like. The digital signage 20a is connected to the management server 10 on the cloud via the network 50, and displays the congestion status information of the facility 30.

携帯端末20bは、利用者が所持するスマートフォンやタブレット端末、携帯電話などを含む各種の情報処理装置である。予め汎用のウェブブラウザ又は専用アプリケーションがインストールされている。携帯端末20bは、デジタルサイネージ20aと同様にネットワーク50を介してクラウド上の管理サーバ10と接続され、施設30の混雑状況情報を表示する。 The mobile terminal 20b is various information processing devices including a smartphone, a tablet terminal, a mobile phone, and the like possessed by the user. A general-purpose web browser or a dedicated application is installed in advance. The mobile terminal 20b is connected to the management server 10 on the cloud via the network 50 like the digital signage 20a, and displays the congestion status information of the facility 30.

施設30は、混雑状況の監視対象となる施設等に設けられた所定のスペースである(以下単に施設という)。本実施形態においては、例えばフードコート施設であり、フードコートスペースの混雑状況が監視対象となりうる。 The facility 30 is a predetermined space provided in a facility or the like to be monitored for the congestion status (hereinafter, simply referred to as a facility). In the present embodiment, for example, it is a food court facility, and the congestion status of the food court space can be monitored.

カメラ31は、施設30に設置される撮像装置である。カメラ31は、施設30の画像(静止画像及び動画像を含む)をリアルタイムで撮像しており、撮像された画像はGW32を介して管理サーバ10に逐一送信される。なお、本実施形態において、1台のカメラ31により混雑状況の監視対象となる施設30の全体領域を撮像範囲にカバーする。但し、カメラ31の設置台数はこの限りではなく、必要に応じて複数台のカメラ31により施設30の全体領域を撮像範囲としてカバーしてもよい。 The camera 31 is an imaging device installed in the facility 30. The camera 31 captures images of the facility 30 (including still images and moving images) in real time, and the captured images are transmitted to the management server 10 one by one via the GW 32. In the present embodiment, one camera 31 covers the entire area of the facility 30 to be monitored for the congestion status within the imaging range. However, the number of cameras 31 installed is not limited to this, and the entire area of the facility 30 may be covered as an imaging range by a plurality of cameras 31 as needed.

GW32は、カメラ31及びネットワーク50に接続されたルータ等の通信中継機器である。カメラ31により撮像された画像は、GW32を介して管理サーバ10に送信される。なお、カメラ31及びGW32は通信機能一体型でもよく、この場合にGW32は不要としてもよい。 The GW 32 is a communication relay device such as a router connected to the camera 31 and the network 50. The image captured by the camera 31 is transmitted to the management server 10 via the GW 32. The camera 31 and the GW 32 may be integrated with a communication function, and in this case, the GW 32 may not be required.

ネットワーク50は、有線、無線を含む通信ネットワークである。ネットワーク50は、例えば、インターネット、公衆回線網、WiFi(登録商標)などを含む。 The network 50 is a communication network including wired and wireless. The network 50 includes, for example, the Internet, a public network, WiFi (registered trademark) and the like.

(ハードウェア構成)
図2は、本実施形態に係る管理サーバのハードウェア構成例を示す図である。管理サーバ10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14、及び通信装置15を有する。
(Hardware configuration)
FIG. 2 is a diagram showing a hardware configuration example of the management server according to the present embodiment. The management server 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an HDD (Hard Disk Drive) 14, and a communication device 15.

CPU11は、各種プログラムの実行や演算処理を行う。ROM12は、起動時に必要なプログラムなどが記憶されている。RAM13は、CPU11での処理を一時的に記憶したり、データを記憶したりする作業エリアである。HDD14は、各種データ及びプログラムを格納する。通信装置15は、ネットワーク50を介して他装置との通信を行う。 The CPU 11 executes various programs and performs arithmetic processing. The ROM 12 stores programs and the like required at startup. The RAM 13 is a work area for temporarily storing the processing in the CPU 11 and storing the data. The HDD 14 stores various data and programs. The communication device 15 communicates with another device via the network 50.

(ソフトウェア構成)
図3は、本実施形態に係る管理サーバのソフトウェア構成例を示す図である。管理サーバ10は、主な機能部として、画像取得部101、人検知部102、確度算出部103、エリア判定部104、混雑エリア検出部105、非混雑エリア検出部106、出力部107、及び記憶部108を有する。
(Software configuration)
FIG. 3 is a diagram showing a software configuration example of the management server according to the present embodiment. The management server 10 has image acquisition unit 101, person detection unit 102, accuracy calculation unit 103, area determination unit 104, congestion area detection unit 105, non-congestion area detection unit 106, output unit 107, and storage as main functional units. It has a part 108.

画像取得部101は、施設30に設置されているカメラ31から、施設の画像を取得する。 The image acquisition unit 101 acquires an image of the facility from the camera 31 installed in the facility 30.

人検知部102は、施設に存在する人(人物・人体)を、画像取得部101により取得された画像に基づいて検知する。 The person detection unit 102 detects a person (person / human body) existing in the facility based on the image acquired by the image acquisition unit 101.

確度算出部103は、人検知部102により検知された人毎に、その人が存在する確からしさを示す確証度の値を算出する。 The accuracy calculation unit 103 calculates a value of the certainty degree indicating the certainty that the person exists for each person detected by the person detection unit 102.

エリア判定部104は、施設の画像中の領域のうち混雑エリア及び非混雑エリアを判定する。具体的には、施設の画像中の領域のうち、所定数以上の人が検知された領域を混雑エリアと判定する。また、施設の画像中の領域のうち、この混雑エリアを除く領域を非混雑エリアと判定する。 The area determination unit 104 determines a congested area and a non-congested area among the areas in the image of the facility. Specifically, among the areas in the image of the facility, the area where a predetermined number or more of people are detected is determined as a congested area. In addition, among the areas in the image of the facility, the areas other than this congested area are determined to be non-congested areas.

混雑エリア検出部105は、混雑エリア内で検知された人のうち、その確証度が記憶部108の第1閾値よりも大きい人を検出する。 The congestion area detection unit 105 detects a person whose certainty is higher than the first threshold value of the storage unit 108 among the persons detected in the congestion area.

非混雑エリア検出部106は、非混雑エリア内で検知された人のうち、その確証度が記憶部108の第2閾値よりも大きい人を検出する。 The non-congested area detection unit 106 detects a person whose certainty is higher than the second threshold value of the storage unit 108 among the persons detected in the non-congested area.

出力部107は、施設の画像中の領域のうち、混雑エリア検出部105及び非混雑エリア検出部106により検出された人の存在領域を出力する。 The output unit 107 outputs the existing area of the person detected by the congested area detection unit 105 and the non-congested area detection unit 106 among the areas in the image of the facility.

記憶部108は、第1閾値(混雑エリア用ハイパーパラメータ)、及びその第1閾値よりも値が大きい第2閾値(非混雑エリア用ハイパーパラメータ)を記憶している。また、混雑状況管理DB108aを記憶している。混雑状況管理DB108aは、施設30の混雑状況情報をリアルタイムに管理するためのデータベースである。 The storage unit 108 stores a first threshold value (hyperparameter for a congested area) and a second threshold value (hyperparameter for a non-congested area) having a value larger than the first threshold value. It also stores the congestion status management DB 108a. The congestion status management DB 108a is a database for managing the congestion status information of the facility 30 in real time.

なお、各機能部は、管理サーバ10を構成するコンピュータのCPU、ROM、RAM等のハードウェア資源上で実行されるコンピュータプログラムによって実現されるものである。これらの機能部は、「手段」、「モジュール」、「ユニット」、又は「回路」に読替えてもよい。 Each functional unit is realized by a computer program executed on hardware resources such as a CPU, ROM, and RAM of a computer constituting the management server 10. These functional parts may be read as "means", "module", "unit", or "circuit".

(混雑状況管理DB)
図4は、本実施形態に係る混雑状況管理DBのデータ例を示す図である。混雑状況管理DB108aは、施設30の混雑状況情報をリアルタイムに管理するためのデータベースである。混雑状況管理DB108aは、例えば、「施設ID」、「施設名」、「設備」などのデータ項目を有する。
(Congestion status management DB)
FIG. 4 is a diagram showing a data example of the congestion status management DB according to the present embodiment. The congestion status management DB 108a is a database for managing the congestion status information of the facility 30 in real time. The congestion status management DB 108a has data items such as "facility ID", "facility name", and "equipment".

「施設ID」は、施設を一意に特定するために施設毎に付番される固有の識別子を示す。「施設名」は、当該施設の名称を示す。 The "facility ID" indicates a unique identifier numbered for each facility in order to uniquely identify the facility. "Facility name" indicates the name of the facility.

「設備」は、混雑状況の監視対象となる設備であって、当該施設において利用者に供される具体的な設備等を示す。設備は対象となる施設に応じて複数設定される。例えば、施設がショッピングセンターのフードコートである場合、混雑状況の監視対象となる設備は、利用者に供される各飲食店舗である。また例えば、施設が空港の保安検査場である場合、混雑状況の監視対象となる設備は、利用者に供される各保安検査レーンである。 “Equipment” refers to equipment to be monitored for congestion, and refers to specific equipment provided to users at the facility. Multiple facilities are set according to the target facility. For example, when the facility is a food court of a shopping center, the equipment to be monitored for the congestion status is each restaurant provided to the user. Further, for example, when the facility is an airport security checkpoint, the equipment to be monitored for the congestion status is each security checkpoint provided to the user.

更に、「設備」毎に混雑状況の情報がリアルタイムに管理・更新される。混雑状況の情報は一例として、「空」、「やや混雑」、「非常に混雑」などがある。但しこれに限られず、他にも例えば具体的な混雑人数などによって管理してもよい。 Furthermore, congestion status information is managed and updated in real time for each "equipment". As an example, the information on the congestion status includes "empty", "slightly crowded", and "very crowded". However, the present invention is not limited to this, and management may be performed according to, for example, a specific number of people.

(デジタルサイネージの表示画面)
図5は、本実施形態に係るデジタルサイネージの表示画面の一例を示す図である。図5のデジタルサイネージ20は、施設エントランス、フロア案内壁面などに設置され、利用者に対して施設30の混雑状況情報を表示する。
(Digital signage display screen)
FIG. 5 is a diagram showing an example of a display screen of the digital signage according to the present embodiment. The digital signage 20 of FIG. 5 is installed at the facility entrance, the floor guide wall surface, and the like, and displays the congestion status information of the facility 30 to the user.

施設30のフードコートには、例えば「Cafe」201、「らーめん」202、「たこ焼」203、「クレープ」204、「ハンバーガー」205などの飲食店舗が入っている。図5に示されるように、デジタルサイネージ20aの表示画面上には、各飲食店舗それぞれの混雑状況の情報が表示されている。 The food court of the facility 30 contains restaurants such as "Cafe" 201, "Ramen" 202, "Takoyaki" 203, "Crepe" 204, and "Hamburger" 205. As shown in FIG. 5, information on the congestion status of each restaurant is displayed on the display screen of the digital signage 20a.

具体的には、「Cafe」201及び「クレープ」204は「空いています」、「らーめん」202及び「ハンバーガー」205は「非常に混雑しています」、「たこ焼」203は「やや混雑しています」との混雑状況情報が表示されている。利用者は、デジタルサイネージ20aの表示画面を参照することで、それぞれの混雑状況を容易に把握することが可能である。 Specifically, "Cafe" 201 and "Crepe" 204 are "vacant", "Ramen" 202 and "Hamburger" 205 are "very crowded", and "Takoyaki" 203 is "slightly crowded". The congestion status information is displayed. By referring to the display screen of the digital signage 20a, the user can easily grasp each congestion status.

<画像処理>
図6は、本実施形態に係るサンプル画像(その1)を示す図である。図6の画像は、カメラ31により撮像されたオリジナル画像に相当する。本オリジナル画像においては、画像中央付近に人が混んでいるところと、画像下方付近に人が空いているところが写っている。以下、画像中、人が混雑している画像領域を混雑エリア、人が混雑していない画像領域を非混雑エリアという。
<Image processing>
FIG. 6 is a diagram showing a sample image (No. 1) according to the present embodiment. The image of FIG. 6 corresponds to the original image captured by the camera 31. In this original image, a place where people are crowded near the center of the image and a place where people are vacant near the bottom of the image are shown. Hereinafter, in the image, an image area in which people are crowded is referred to as a crowded area, and an image area in which people are not crowded is referred to as a non-crowded area.

図7は、本実施形態に係るサンプル画像(その2)を示す図である。図7の画像は、管理サーバ10が図6のオリジナル画像に対して物体検知処理を実行した後の処理後画像を示す。処理後画像中には、例えば、「person」(人)、「clock」(時計)、「handbag」(ハンドバック)といった複数の物体が検知されており、検知された物体が存在する領域には四角(矩形)のフォーカス枠が表示されていることが分かる。 FIG. 7 is a diagram showing a sample image (No. 2) according to the present embodiment. The image of FIG. 7 shows the processed image after the management server 10 executes the object detection process on the original image of FIG. In the processed image, for example, a plurality of objects such as "person" (person), "clock" (clock), and "handbag" (handbag) are detected, and a square is detected in the area where the detected object exists. It can be seen that the (rectangular) focus frame is displayed.

このうち特に画像領域aは、ある所定サイズの矩形領域中において所定数以上の人(person)が検知されていることから、混雑エリアである。これに対して、画像領域bは、ある所定サイズの矩形領域中において所定数以上の人(person)が検知されていないことから、非混雑エリアである。 Of these, the image area a is a congested area because a predetermined number or more of people (persons) are detected in a rectangular area having a predetermined size. On the other hand, the image area b is a non-congested area because a predetermined number or more of people (persons) are not detected in the rectangular area of a predetermined size.

また、管理サーバ10は物体検知処理において人を検知した場合、併せて確からしさを示す値(確度という)を算出する。つまり検知された物体毎又は人毎(フォーカス枠毎ともいえる)に対応する確度が算出され、検知された物体が人として確からしいほど高い確度が算出される。逆に、検知された物体が人として確からしくないほど低い確度が算出される。そして確度が低いほど、検知された物体が人以外である可能性が高くなる。例えば、画像中に人物(人体)の大部分が写っている場合、人としての確からしさは高く判定されるため、検知結果の確度は高く算出される。一方、画像中に人物(人体)の一部しか写っていない場合、人としての確からしさは低く判定されるため、検知されたとしてもその検知結果の確度は低く算出される。 Further, when the management server 10 detects a person in the object detection process, the management server 10 also calculates a value (referred to as accuracy) indicating the certainty. That is, the accuracy corresponding to each detected object or each person (which can be said to be each focus frame) is calculated, and the accuracy is calculated so high that the detected object is probable as a person. On the contrary, the probability that the detected object is so low that it is not certain as a human being is calculated. And the lower the accuracy, the higher the possibility that the detected object is other than a person. For example, when most of a person (human body) is shown in an image, the certainty as a person is judged to be high, so that the certainty of the detection result is calculated to be high. On the other hand, when only a part of a person (human body) is shown in the image, the certainty as a person is judged to be low, and even if it is detected, the certainty of the detection result is calculated to be low.

次に管理サーバ10は、人であろうと検知された検知結果のうち、その確度がハイパーパラメータ値よりも高いものについて、最終的に人であると判定して検出する。ハイパーパラメータ値よりも低い検知結果は除外判定される。よって当該ハイパーパラメータを低く調整すると、人検出自体はされやすいが、人以外の物体等も人として検出されやすくなる。一方、このハイパーパラメータを高く調整すると、人検知は検出自体されにくいが、人以外の物体等は人として検出されにくくなる。 Next, the management server 10 finally determines that the person is a person and detects the detection result whose accuracy is higher than the hyperparameter value among the detection results detected to be a person. Detection results lower than the hyperparameter value are excluded. Therefore, if the hyperparameters are adjusted low, human detection itself is likely to occur, but objects other than humans are also likely to be detected as humans. On the other hand, if this hyperparameter is adjusted high, human detection itself is difficult to detect, but objects other than humans are difficult to be detected as humans.

再び図7を参照する。画像領域a(混雑エリア)においては、人が混んでいるため、人物同士が密集し重なっていたりするなどして画像中に人物(人体)の一部しか写っていないことも多い。ときに帽子、鞄、靴、又はそれらの一部など、人が有する身の回り品しか写っていない場合もある。例えば、画像中にある人物の影に隠れて位置している人物についてその腕のみが写っている場合、人として検知されたものの、人としての確からしさは低く判定されるため、その確度は低く算出される。 See FIG. 7 again. Since people are crowded in the image area a (congested area), it is often the case that only a part of the person (human body) is shown in the image because the people are densely overlapped with each other. Occasionally, only personal belongings such as hats, bags, shoes, or parts of them are shown. For example, if only the arm of a person hidden in the shadow of a person in the image is shown, the accuracy is low because it is detected as a person but the certainty as a person is judged to be low. It is calculated.

よって、画像領域a(混雑エリア)においては、当該ハイパーパラメータを低く調整すると、画像中に人物(人体)の一部しか写っていない人物なども検出されやすくなり、検知漏れをなくせるというメリットがある。但し、人以外の物体等も人として検知しやすくはなる。一方、当該ハイパーパラメータを高く調整すると、確実に人を検知できるものの、画像中に人物(人体)の一部しか写っていない人物などは検出されにくくなり、検知漏れも起こりやすくなる。 Therefore, in the image area a (congested area), if the hyperparameter is adjusted low, it becomes easier to detect a person whose image shows only a part of a person (human body), and there is an advantage that detection omission can be eliminated. is there. However, it becomes easier to detect objects other than humans as humans. On the other hand, if the hyperparameters are adjusted high, a person can be reliably detected, but a person or the like in which only a part of the person (human body) is shown in the image is difficult to be detected, and detection omission is likely to occur.

画像領域b(非混雑エリア)においては、画像中において人が混んでいないため、画像中に人物(人体)の大部分が写っていることが多い。よって、当該ハイパーパラメータを低く調整し、画像中に人物(人体)の一部しか写っていない人物なども検出されやすくするよりも、当該ハイパーパラメータを高く調整することで、人以外の物体等も人として検知してしまうことを排除し確実に人を検知した方のメリットがある。 In the image area b (non-congested area), since people are not crowded in the image, most of the person (human body) is often shown in the image. Therefore, rather than adjusting the hyperparameters low to make it easier to detect people who only show a part of the person (human body) in the image, adjusting the hyperparameters high makes it possible to detect objects other than humans. There is a merit of those who eliminate the detection as a person and detect the person reliably.

従来、当該ハイパーパラメータを、あまりに高すぎることも低すぎることもなく適度な中間値に調整されることが多かった。しかしながら、混雑エリア及び非混雑エリアを含む画像においては最適な調整とは言い難い。即ち本実施形態において、混雑エリア及び非混雑エリアを含む画像においては、混雑エリアには低いハイパーパラメータを適用することで、画像中に人物(人体)の一部しか写っていない人物なども検出されやすくなり、検知漏れをなくせるようにする。また、非混雑エリアには高いハイパーパラメータを適用することで、人以外の物体等も人として検知してしまうことを排除し確実に人を検知するようにする。 In the past, the hyperparameters were often adjusted to moderate intermediate values without being too high or too low. However, it cannot be said that the adjustment is optimal for an image including a congested area and a non-congested area. That is, in the present embodiment, in an image including a congested area and a non-congested area, by applying a low hyperparameter to the congested area, a person or the like in which only a part of a person (human body) is shown in the image is detected. It will be easier to eliminate detection omissions. In addition, by applying high hyperparameters to non-congested areas, it is possible to eliminate the detection of objects other than humans as humans and ensure that humans are detected.

なお、特に画像領域a(混雑エリア)において、当該ハイパーパラメータを低く調整すると、人以外の物体等も人として検知しやすくなる。しかしながら、ハイパーパラメータの高低調整は、人がいるのにいないと判定されるリスクと、人がいないのにいると判定されるリスクとがトレードオフの関係である。そして両者を比べた場合、混雑エリアの人数を把握する混雑状況管理システムや空席管理システムとっては、人がいるのにいないと判定されることの方が問題である。 In particular, in the image area a (congested area), if the hyperparameter is adjusted low, it becomes easy to detect an object other than a person as a person. However, the adjustment of hyperparameters has a trade-off relationship between the risk of being determined to be absent and the risk of being determined to be absent. When comparing the two, it is more problematic that it is determined that there are no people in the congestion status management system or vacant seat management system that grasps the number of people in the crowded area.

<情報処理>
次に、管理サーバ10が実行する人検知処理及び人検出処理について説明する。
<Information processing>
Next, the person detection process and the person detection process executed by the management server 10 will be described.

(人検知処理)
図8は、本実施形態に係る人検知理を示すフローチャート図である。
(People detection processing)
FIG. 8 is a flowchart showing a person detection process according to the present embodiment.

S1:管理サーバ10は、カメラ31により撮像された画像を受信したか否かを判定する。また、画像とともに施設30を一意に特定するための「施設ID」を受信する。但し必ずしも「施設ID」を用いなくともよく、管理サーバ10側において例えばGW32の有する固有識別子を用いるなど、当該画像がどこの施設30のものかを特定できればよい。画像を受信した場合、S2へ進む。 S1: The management server 10 determines whether or not the image captured by the camera 31 has been received. In addition, a "facility ID" for uniquely identifying the facility 30 is received together with the image. However, it is not always necessary to use the "facility ID", and it is sufficient that the management server 10 can identify which facility 30 the image belongs to, for example, by using the unique identifier of the GW 32. When the image is received, the process proceeds to S2.

S2:管理サーバ10は、受信した画像(オリジナル画像)を対象として、人検知処理を実行する。人検知処理は、画像中に人の存在有無を判定し、人が存在する場合には、画像中の人が存在するであろう「人存在領域」と、その領域に人が存在する確からしさを示す「確度」とを算出する。「人存在領域」は、例えば四角(矩形)のフォーカス枠などで出力することができる(図7)。 S2: The management server 10 executes a person detection process on the received image (original image). The person detection process determines the presence or absence of a person in the image, and if there is a person, the "human existence area" where the person in the image will exist and the certainty that the person exists in that area. The "accuracy" indicating the above is calculated. The "human existence area" can be output, for example, in a square (rectangular) focus frame (FIG. 7).

S3:管理サーバ10は、検知結果を出力する。検出結果は、画像中の人が存在するであろう「人存在領域」及びその領域に人が存在する確からしさを示す「確度」のセットである。なお、確度は、例えば0から1の値を取りうる。また、1に近いほどその領域に人が存在する確からしさが高い。 S3: The management server 10 outputs the detection result. The detection result is a set of "human existence area" in which a person will exist in the image and "probability" indicating the certainty that a person exists in the area. The accuracy can be, for example, a value from 0 to 1. Also, the closer it is to 1, the higher the certainty that a person exists in that area.

なお、人検知処理においては、YOLO(You Only Look Once)など機械学習手法を用いた画像認識アルゴリズムを用いることができる。 In the human detection process, an image recognition algorithm using a machine learning method such as YOLO (You Only Look None) can be used.

(補足)
上述の人検知処理について、以下補足する。
(1)例えば更に、画像中に写る所定の物体の物理的な大きさ(サイズ)を基準として、人として物理的に想定される画像中の大きさを考慮の上、「人存在領域」と「確度」とを算出することで、人検知精度の向上ひいては混雑エリアの判定精度向上を図ることができる。
(Supplement)
The above-mentioned person detection process will be supplemented below.
(1) For example, further, based on the physical size (size) of a predetermined object reflected in the image, and considering the size in the image physically assumed as a person, the term "human existence area" is used. By calculating the "accuracy", it is possible to improve the accuracy of detecting people and thus the accuracy of determining a congested area.

例えば、図6及び図7の画像を参照すると、画像中、中央に像オブジェが、通路には座席シートが、天井には照明器具、天井側面にはガラス窓などが設置されている。よって少なくともこれら人以外の物体の物理的な大きさ(サイズ)が分かれば、「人存在領域」と「確度」とを算出するに際し、人の一般的な大きさ(例えば身長サイズでいえば150cm〜200cm前後、顔サイズでいえば顔の長さが20〜25cm前後、顔の横幅が15〜18cm前後)と、これら物体の物理的な大きさとの比較関係から極端に大きすぎたり小さすぎたりと乖離している場合、つまり画像中に写る人としての大きさが妥当でない場合、「人存在領域」としない、または「人存在領域」としてもその「確度」を小さく補正することができる。 For example, referring to the images of FIGS. 6 and 7, an image object is installed in the center of the image, a seat is installed in the aisle, a lighting fixture is installed on the ceiling, and a glass window is installed on the side of the ceiling. Therefore, if at least the physical size of an object other than these people is known, the general size of a person (for example, 150 cm in height size) when calculating the "human existence area" and "accuracy" ~ 200 cm, face size is about 20-25 cm, face width is about 15-18 cm), which is extremely large or too small due to the comparison with the physical size of these objects. If it deviates from the above, that is, if the size of the person in the image is not appropriate, the "probability" can be corrected to be small even if the "human existence area" is not set or the "human existence area" is set.

なお、画像の場合、手前は大きく、奥行き側は小さく写るため、サイズ補正を行うことは言うまでもない。また、像オブジェ、照明器具、ガラス窓などの大きさはものによってまちまちであることが多いため、これら物体の物理的な大きさを特定しにくい側面があるものの、その中でも特に座席シートなどはどの座席であっても概ねその大きさは一定の大きさ(例えばシート部が50〜60cm前後)で特定可能である。即ち、画像中の基準として用いられる物体は、いわゆる大きさ(既知情報)が一意に特定可能な規格品であることが望ましい。 In the case of an image, it goes without saying that size correction is performed because the front side is large and the depth side is small. In addition, since the sizes of image objects, lighting fixtures, glass windows, etc. often vary depending on the object, it is difficult to specify the physical size of these objects, but among them, which are the seats, etc. Even if it is a seat, its size can be specified by a substantially constant size (for example, the seat portion is about 50 to 60 cm). That is, it is desirable that the object used as a reference in the image is a standard product whose so-called size (known information) can be uniquely specified.

(2)また、更に画像中に写る所定の物体(特に構造建築物等)の物理的な位置を基準として、人として物理的に位置しうる画像中の位置を考慮の上、「人存在領域」と「確度」とを算出することで、人検知精度の向上ひいては混雑エリアの判定精度向上を図ることができる。 (2) Further, with reference to the physical position of a predetermined object (particularly a structural building, etc.) reflected in the image, and considering the position in the image that can be physically positioned as a person, the "human existence area" By calculating "" and "accuracy", it is possible to improve the accuracy of detecting people and thus the accuracy of determining a congested area.

例えば、図6及び図7の画像を参照すると、画像中、手前から奥行側にかけて通路が、中央には像オブジェが、通路には座席シートが、天井には照明器具、天井側面にはガラス窓などが設置されている。よって、人の身長よりも高い位置にある像オブジェの上部付近、照明器具及びガラス窓とは重なる位置やその近傍には、人として物理的に位置しえない。このようにこれら物体の物理的な位置との比較関係から、画像中に写る人としての位置が妥当でない場合、「人存在領域」としない、または「人存在領域」としてもその「確度」を小さく補正することができる。 For example, referring to the images of FIGS. 6 and 7, in the image, there is a passage from the front to the depth side, an image object in the center, a seat in the passage, a lighting fixture on the ceiling, and a glass window on the side of the ceiling. Etc. are installed. Therefore, it cannot be physically positioned as a person in the vicinity of the upper part of the image object, which is higher than the height of the person, in the position where it overlaps with the lighting fixture and the glass window, or in the vicinity thereof. In this way, if the position as a person in the image is not appropriate from the comparison relationship with the physical position of these objects, the "human existence area" is not set, or the "probability" is set as the "human existence area". It can be corrected to be small.

(3)また、更に画像中に写る人物(人体)の、特に頭や顔といった一部しか写っていない画像同士の位置関係(距離関係)を考慮の上、「人存在領域」と「確度」とを算出することで、人検知精度の向上ひいては混雑エリアの判定精度向上を図ることができる。 (3) In addition, the "human existence area" and "accuracy" are taken into consideration in consideration of the positional relationship (distance relationship) between the images of the person (human body) appearing in the image, especially only a part of the image such as the head and face. By calculating and, it is possible to improve the accuracy of detecting people and thus the accuracy of determining a congested area.

上述したように、画像中に人物(人体)の大部分が写っている場合、人としての確からしさは高く判定されるため、検知結果の確度は高く算出されるが、一方、画像中に人物(人体)の一部しか写っていない場合、人としての確からしさは低く判定されるため、検知されたとしてもその検知結果の確度は低く算出される。また、上述の通りカメラ31は施設30の全体領域を撮像範囲としてカバーするため比較的上方から見下ろす形で画像を撮像する。このため、混雑エリアでは、画像中に人物(人体)の特に頭や顔といった一部しか写っていない画像が多数となる。 As described above, when most of the person (human body) is shown in the image, the certainty as a person is judged to be high, so the accuracy of the detection result is calculated to be high, but on the other hand, the person in the image. When only a part of (human body) is shown, the certainty as a person is judged to be low, so even if it is detected, the certainty of the detection result is calculated to be low. Further, as described above, the camera 31 captures an image in a form of looking down from relatively above in order to cover the entire area of the facility 30 as an imaging range. For this reason, in a crowded area, there are many images in which only a part of a person (human body), especially the head or face, is shown in the image.

よって、画像中の一部画像同士の位置関係(距離関係)を考慮し、特に頭や顔といった一部しか写っていない一部画像同士が互いに所定よりも近い位置(近い距離)に存在している場合、もしくは一部画像同士が互いに重なって存在している場合、「人存在領域」としてのその「確度」を大きく補正することができる。
(4)画像中に写る特定の物体(予め登録等された物体)の物理的な位置を基準として、人として画像中の位置関係(距離関係)を考慮の上、「人存在領域」と「確度」とを算出することで、混雑エリアの判定精度向上を図ることができる。
Therefore, considering the positional relationship (distance relationship) between some images in the image, some images in which only a part such as the head and the face are shown exist at a position closer (closer distance) than a predetermined value to each other. If there are some images, or if some of the images overlap each other, the "accuracy" as the "human existence area" can be greatly corrected.
(4) Based on the physical position of a specific object (object registered in advance) that appears in the image, and considering the positional relationship (distance relationship) in the image as a person, the "human existence area" and "human existence area" By calculating "accuracy", it is possible to improve the determination accuracy of the congested area.

人は所定の施設の周辺に集中しやすいという特徴がある。具体的に、後述するお店、保安検査レーンの前に並んでいる場合が典型例である。よって、画像中の特定の物体(予め登録等されたお店、保安検査レーン等)との位置関係(距離関係)を考慮し、特に頭や顔といった一部しか写っていない一部画像が特定の物体と近い位置(近い距離)に存在している場合、「人存在領域」としてのその「確度」を大きく補正することができる。 One of the characteristics is that people tend to concentrate around a given facility. Specifically, it is a typical example that they are lined up in front of the shops and security inspection lanes described later. Therefore, in consideration of the positional relationship (distance relationship) with a specific object (pre-registered shop, security inspection lane, etc.) in the image, a part of the image such as the head or face is specified. When it exists at a position (close distance) close to the object, its "accuracy" as a "human existence area" can be greatly corrected.

(人検出処理)
図9は、本実施形態に係る人検出処理を示すフローチャート図である。
(People detection process)
FIG. 9 is a flowchart showing a person detection process according to the present embodiment.

S11:管理サーバ10は、混雑エリア判定処理を実行する。混雑エリア判定処理は、画像中、S3の検知結果により所定矩形領域中において所定数以上の人(人存在領域)が検知されている場合、その矩形領域を混雑エリアと判定する。これに対して、それ以外の矩形領域、即ち所定数以上の人(人存在領域)が検知されていない矩形領域を非混雑エリアと判定する。 S11: The management server 10 executes the congestion area determination process. In the congestion area determination process, when a predetermined number or more of people (people existing area) are detected in the predetermined rectangular area based on the detection result of S3 in the image, the rectangular area is determined as the congestion area. On the other hand, the other rectangular area, that is, the rectangular area in which a predetermined number or more of people (people existing area) are not detected is determined as a non-congested area.

S12:画像中、少なくとも1以上の混雑エリアがあると判定された場合、混雑エリアがありとして、S13へ進む。混雑エリアがない場合、S15へ進む。 S12: If it is determined that there is at least one congested area in the image, the process proceeds to S13 assuming that there is a congested area. If there is no congested area, proceed to S15.

S13:管理サーバ10は、混雑エリア用ハイパーパラメータを取得する。混雑エリア用ハイパーパラメータは、記憶部108に予め記憶されている。 S13: The management server 10 acquires the hyperparameters for the congested area. The hyperparameters for the congested area are stored in advance in the storage unit 108.

S14:管理サーバ10は、混雑エリア内から検知された検知結果(人存在領域及び確度のセット)のうち、その確度が混雑エリア用ハイパーパラメータよりも高い検知結果を検出する。なお、ハイパーパラメータは、例えば0から1の値を取りうる。 S14: The management server 10 detects a detection result (a set of a human existence area and an accuracy) detected from within the congestion area, whose accuracy is higher than that of the hyperparameter for the congestion area. The hyperparameter can take a value from 0 to 1, for example.

例えば、混雑エリア用ハイパーパラメータが「0.01」(確度1%)であったとする。また、混雑エリア内から検知された検知結果として、例えば、検知結果1の確度が「0.5」、検知結果2の確度が「0.001」、検知結果3の確度が「0.005」、検知結果4の確度が「0.015」、検知結果5の確度が「0.5」であったとする。上述したように、混雑エリアにおいては、人が混んでいるため、人物同士が密集し重なっていたりするなどして画像中に人物(人体)の一部しか写っていないことも多く、確度が低い検知結果が多く出力される。そしてこの場合、混雑エリア用ハイパーパラメータ「0.01」よりも確度が高い検知結果1、検知結果4、検知結果5が検出される。 For example, suppose that the hyperparameter for a congested area is "0.01" (accuracy 1%). Further, as the detection results detected from within the congested area, for example, the accuracy of the detection result 1 is "0.5", the accuracy of the detection result 2 is "0.001", and the accuracy of the detection result 3 is "0.005". It is assumed that the accuracy of the detection result 4 is "0.015" and the accuracy of the detection result 5 is "0.5". As mentioned above, in a crowded area, people are crowded, so people are often crowded and overlapped, and only a part of the person (human body) is shown in the image, so the accuracy is low. Many detection results are output. In this case, the detection result 1, the detection result 4, and the detection result 5 having higher accuracy than the hyperparameter "0.01" for the congested area are detected.

S15:管理サーバ10は、非混雑エリア用ハイパーパラメータを取得する。非混雑エリア用ハイパーパラメータは、記憶部108に予め記憶されている。 S15: The management server 10 acquires hyperparameters for non-congested areas. The hyperparameters for non-congested areas are stored in advance in the storage unit 108.

S16:管理サーバ10は、非混雑エリア内から検知された検知結果(人存在領域及び確度のセット)のうち、その確度が非混雑エリア用ハイパーパラメータよりも高い検知結果を検出する。 S16: The management server 10 detects a detection result (a set of a human presence area and an accuracy) detected from within the non-congested area, whose accuracy is higher than that of the hyperparameter for the non-congested area.

ここで、非混雑エリア用ハイパーパラメータが、上述の混雑エリア用ハイパーパラメータ「0.01」よりも高い、例えば「0.5」であったとする。また、非混雑エリア内から検知された検知結果として、例えば、検知結果6の確度が「0.95」、検知結果7の確度が「0.03」、検知結果8の確度が「0.005」であったとする。非混雑エリアにおいては、画像中において人が混んでいないため、画像中に人物(人体)の大部分が写っていることが多く、実際に人が存在する場合には、相当に確度が高い検知結果が出力される。そしてこの場合、非混雑エリア用ハイパーパラメータ「0.5」よりも確度が高い検知結果6が検出される。 Here, it is assumed that the hyperparameters for non-congested areas are higher than the hyperparameters for congested areas "0.01" described above, for example, "0.5". Further, as the detection results detected from within the non-congested area, for example, the accuracy of the detection result 6 is "0.95", the accuracy of the detection result 7 is "0.03", and the accuracy of the detection result 8 is "0.005". ". In a non-crowded area, since people are not crowded in the image, most of the person (human body) is often shown in the image, and when a person actually exists, the detection is fairly accurate. The result is output. In this case, the detection result 6 having a higher accuracy than the hyperparameter “0.5” for the non-congested area is detected.

S17:管理サーバ10は、検出結果を出力する。検出結果は、少なくとも、画像中の人が存在するであろう「人存在領域」である。具体的に、検知結果1としての「人存在領域」、検知結果4としての「人存在領域」、検知結果5としての「人存在領域」、及び検知結果6としての「人存在領域」である。 S17: The management server 10 outputs the detection result. The detection result is at least a "human presence area" in which a person will be present in the image. Specifically, it is a "human existence area" as the detection result 1, a "human existence area" as the detection result 4, a "human existence area" as the detection result 5, and a "human existence area" as the detection result 6. ..

なお、従来のように画像中の混雑エリア及び非混雑エリアを判定することなくハイパーパラメータが一律に「0.2」であった場合、検出結果は、検知結果1としての「人存在領域」、検知結果5としての「人存在領域」、及び検知結果6としての「人存在領域」となる。本実施形態の検出結果と比較すると、混雑エリアにおける検知結果4が検出されない。検知結果4の確度は「0.015」と低い値であるので、実際に人である又は人ではないという何れの可能性もありうる。しかしながら、混雑エリアにおいては画像中に人物(人体)の一部しか写っていないことも多いという特性、人がいるのにいないと判定されるリスク等を考慮すれば、本実施形態の検出結果は、混雑エリアの人数を把握する混雑状況管理システムや空席管理システムとって望ましい検出結果である。 When the hyperparameters are uniformly "0.2" without determining the congested area and the non-congested area in the image as in the conventional case, the detection result is the "human existence area" as the detection result 1. It becomes the "human existence area" as the detection result 5 and the "human existence area" as the detection result 6. Compared with the detection result of this embodiment, the detection result 4 in the congested area is not detected. Since the accuracy of the detection result 4 is as low as "0.015", there is a possibility that the detection result 4 is actually a person or not a person. However, considering the characteristic that only a part of a person (human body) is often shown in the image in a crowded area, the risk of being determined that there is no person, etc., the detection result of the present embodiment is This is a desirable detection result for a congestion status management system or a vacant seat management system that grasps the number of people in a crowded area.

なお、管理サーバ10は、この検出結果を飲食店舗に対応する位置領域とマッピングするなどして、最終的に施設30の混雑状況情報を表示することができる。 The management server 10 can finally display the congestion status information of the facility 30 by mapping the detection result with the position area corresponding to the restaurant.

<施設適用事例>
図10は、本実施形態に係るフードコート画像に基づく検出結果の一例を示す。カメラ31は、施設30としてのフードコートの画像をリアルタイムで撮像しており、撮像された画像はGW32を介して管理サーバ10に逐一送信される。撮像されたフードコートの画像は、混雑エリアaと非混雑エリアbを有している。「らーめん」、「ハンバーガー」、「たこ焼」の飲食店舗付近は人が混んでいる混雑エリアと判定されている。
<Facility application example>
FIG. 10 shows an example of the detection result based on the food court image according to the present embodiment. The camera 31 captures an image of the food court as the facility 30 in real time, and the captured image is transmitted to the management server 10 one by one via the GW 32. The image of the food court captured has a congested area a and a non-congested area b. The area around the restaurants of "Ramen", "Hamburger", and "Takoyaki" is judged to be a crowded area.

図11は、本実施形態に係る保安検査場画像に基づく検出結果の一例を示す。撮像された保安検査場画像は、混雑エリアaと非混雑エリアbを有している。「レーン1」、「レーン2」、「レーン3」の保安検査レーンは人が混んでいる混雑エリアと判定されている。 FIG. 11 shows an example of the detection result based on the security checkpoint image according to the present embodiment. The captured security checkpoint image has a congested area a and a non-congested area b. The security inspection lanes of "lane 1," "lane 2," and "lane 3" are determined to be crowded areas.

図10及び図11に示される混雑エリアにおいては、人物同士が密集し重なっていたりするなどして画像中に一部しか写っていない人物も存在しているため、人検知処理において人であるかどうかの確度が低い人存在領域も検知される。本実施形態においては、混雑エリア内で比較的確度が低い人存在領域についても、検出結果として人が確かに存在するであろう領域として、非混雑エリアよりも積極的に検出する。 In the congested area shown in FIGS. 10 and 11, there are some people who are only partially shown in the image due to the fact that the people are densely overlapped with each other, so whether or not they are people in the person detection process. Areas where people exist with low accuracy are also detected. In the present embodiment, a human presence area having a relatively low accuracy in the congested area is also detected more positively than the non-congested area as an area in which a person is surely present as a detection result.

<総括>
以上のように本実施形態に係る混雑状況管理システム100によれば、画像中において人が混雑している混雑エリアと、そうでない非混雑エリアとがある場合に、エリアに応じて人物検出精度に関するハイパーパラメータの最適化を図ることができる。また、混雑エリアの人数を把握する混雑状況管理システムや空席管理システムにおいて、特に画像中の混雑エリア及び非混雑エリアが存在する場合、好適に混雑状況を管理することが可能となる。
<Summary>
As described above, according to the congestion status management system 100 according to the present embodiment, when there is a crowded area in the image where people are crowded and a non-crowded area where it is not, the accuracy of person detection is related to the area. Hyperparameters can be optimized. Further, in a congestion status management system or a vacant seat management system that grasps the number of people in a crowded area, it is possible to preferably manage the congestion status, especially when there are a crowded area and a non-crowded area in the image.

なお、本発明の好適な実施の形態により、特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。 In addition, although the present invention has been described by showing specific specific examples according to a preferred embodiment of the present invention, these specific examples do not deviate from the broad purpose and scope of the present invention defined in the claims. It is clear that various modifications and changes can be made to the example. That is, it should not be construed that the present invention is limited by the details of the specific examples and the accompanying drawings.

施設は、利用者が利用可能であって混雑状況の監視対象となる設備や施設であればよい。例えば、単独の飲食店・レストランの入り口の待ち行列、公共施設やスタジアムの入場ゲート、遊園地のアトラクションなどであってもよい。 The facility may be any facility or facility that can be used by the user and is subject to monitoring of the congestion status. For example, it may be a queue at the entrance of a single restaurant / restaurant, an entrance gate to a public facility or a stadium, an attraction in an amusement park, or the like.

また、検知対象は、人のみに限られず、所定の物体でもよい。例えば、検知対象を駐輪場の自転車とすることができる。つまり、本実施形態に係る混雑状況管理システム100によれば、駐輪場の監視カメラから、自転車が重なるようにして駐輪されている画像を取得し、混雑状況を管理することが可能である。 Further, the detection target is not limited to a person but may be a predetermined object. For example, the detection target can be a bicycle in a bicycle parking lot. That is, according to the congestion status management system 100 according to the present embodiment, it is possible to acquire an image in which bicycles are parked so as to overlap each other from the surveillance camera of the bicycle parking lot and manage the congestion status.

10 管理サーバ
20a デジタルサイネージ
20b 携帯端末
30 施設
31 カメラ
32 GW
50 ネットワーク
100 混雑状況管理システム
101 画像取部
102 人検知部
103 確度算出部
104 エリア判定部
105 混雑エリア検出部
106 非混雑エリア検出部
107 出力部
108 記憶部

10 Management server 20a Digital signage 20b Mobile terminal 30 Facility 31 Camera 32 GW
50 Network 100 Congestion status management system 101 Image acquisition unit 102 People detection unit 103 Accuracy calculation unit 104 Area judgment unit 105 Congestion area detection unit 106 Non-congestion area detection unit 107 Output unit 108 Storage unit

Claims (8)

所定のスペースに存在する人を、前記スペースの画像に基づいて検出する物体検出装置であって、
第1閾値と、該第1閾値よりも大きい第2閾値とを記憶した記憶手段と、
前記画像を取得する取得手段と、
前記スペースに存在する人を、前記画像に基づいて検知する検知手段と、
検知された前記人毎に、該人が存在する確からしさを示す値を算出する算出手段と、
前記画像中の領域のうち、所定数以上の前記人が検知された混雑エリアを判定する判定手段と、
前記混雑エリア内で検知された前記人のうち、前記値が前記第1閾値よりも大きい人を検出する第1検出手段と、
前記画像中の領域のうち前記混雑エリアを除く非混雑エリア内で検知された前記人のうち、前記値が前記第2閾値よりも大きい人を検出する第2検出手段と、
を有し、
前記算出手段は、前記スペースの画像中に写る所定の物体の物理的な大きさとの比較に基づいて、前記スペースの画像中に検知された前記人の大きさが妥当でない場合、前記値を小さく補正すること、
を特徴とする物体検出装置。
An object detection device that detects a person existing in a predetermined space based on an image of the space.
A storage means that stores a first threshold value and a second threshold value larger than the first threshold value, and
An acquisition means for acquiring the image and
A detection means that detects a person existing in the space based on the image, and
For each of the detected persons, a calculation means for calculating a value indicating the certainty that the person exists, and
A determination means for determining a congested area in which a predetermined number or more of the people are detected in the area in the image, and
Among the persons detected in the congested area, a first detection means for detecting a person whose value is larger than the first threshold value, and
A second detection means for detecting a person whose value is larger than the second threshold value among the persons detected in the non-congested area other than the congested area in the area in the image.
Have,
The calculation means reduces the value when the size of the person detected in the image of the space is not appropriate based on the comparison with the physical size of the predetermined object appearing in the image of the space. To correct,
An object detection device characterized by.
前記所定の物体は、大きさが一意に特定される規格品であること、
を特徴とする請求項1に記載の物体検出装置。
The predetermined object is a standard product whose size is uniquely specified.
The object detection device according to claim 1.
所定のスペースに存在する人を、前記スペースの画像に基づいて検出する物体検出装置であって、
第1閾値と、該第1閾値よりも大きい第2閾値とを記憶した記憶手段と、
前記画像を取得する取得手段と、
前記スペースに存在する人を、前記画像に基づいて検知する検知手段と、
検知された前記人毎に、該人が存在する確からしさを示す値を算出する算出手段と、
前記画像中の領域のうち、所定数以上の前記人が検知された混雑エリアを判定する判定手段と、
前記混雑エリア内で検知された前記人のうち、前記値が前記第1閾値よりも大きい人を検出する第1検出手段と、
前記画像中の領域のうち前記混雑エリアを除く非混雑エリア内で検知された前記人のうち、前記値が前記第2閾値よりも大きい人を検出する第2検出手段と、
を有し、
前記算出手段は、前記スペースの画像中に写る所定の物体の物理的な位置との比較に基づいて、前記スペースの画像中に検知された前記人の位置が妥当でない場合、前記値を小さく補正すること、
を特徴とする物体検出装置。
An object detection device that detects a person existing in a predetermined space based on an image of the space.
A storage means that stores a first threshold value and a second threshold value larger than the first threshold value, and
An acquisition means for acquiring the image and
A detection means that detects a person existing in the space based on the image, and
For each of the detected persons, a calculation means for calculating a value indicating the certainty that the person exists, and
A determination means for determining a congested area in which a predetermined number or more of the people are detected in the area in the image, and
Among the persons detected in the congested area, a first detection means for detecting a person whose value is larger than the first threshold value, and
A second detection means for detecting a person whose value is larger than the second threshold value among the persons detected in the non-congested area other than the congested area in the area in the image.
Have,
The calculation means corrects the value to a small value when the position of the person detected in the image of the space is not appropriate based on the comparison with the physical position of the predetermined object in the image of the space. To do,
An object detection device characterized by.
前記所定の物体は、人の身長よりも高い位置にある物体であること、
を特徴とする請求項3に記載の物体検出装置。
The predetermined object is an object located higher than the height of a person.
The object detection device according to claim 3.
所定のスペースに存在する人を、前記スペースの画像に基づいて検出する物体検出装置であって、
第1閾値と、該第1閾値よりも大きい第2閾値とを記憶した記憶手段と、
前記画像を取得する取得手段と、
前記スペースに存在する人を、前記画像に基づいて検知する検知手段と、
検知された前記人毎に、該人が存在する確からしさを示す値を算出する算出手段と、
前記画像中の領域のうち、所定数以上の前記人が検知された混雑エリアを判定する判定手段と、
前記混雑エリア内で検知された前記人のうち、前記値が前記第1閾値よりも大きい人を検出する第1検出手段と、
前記画像中の領域のうち前記混雑エリアを除く非混雑エリア内で検知された前記人のうち、前記値が前記第2閾値よりも大きい人を検出する第2検出手段と、
を有し、
前記算出手段は、前記スペースの画像中に複数の前記人の顔又は頭が検知された場合、該人の顔又は頭同士の位置が所定よりも近いもしくは互いに重なっている場合、前記値を大きく補正すること、
を特徴とする物体検出装置。
An object detection device that detects a person existing in a predetermined space based on an image of the space.
A storage means that stores a first threshold value and a second threshold value larger than the first threshold value, and
An acquisition means for acquiring the image and
A detection means that detects a person existing in the space based on the image, and
For each of the detected persons, a calculation means for calculating a value indicating the certainty that the person exists, and
A determination means for determining a congested area in which a predetermined number or more of the people are detected in the area in the image, and
Among the persons detected in the congested area, a first detection means for detecting a person whose value is larger than the first threshold value, and
A second detection means for detecting a person whose value is larger than the second threshold value among the persons detected in the non-congested area other than the congested area in the area in the image.
Have,
The calculation means increases the value when a plurality of faces or heads of the person are detected in the image of the space, or when the positions of the faces or heads of the persons are closer than a predetermined value or overlap with each other. To correct,
An object detection device characterized by.
所定のスペースに存在する人を、前記スペースの画像に基づいて検出する物体検出装置であって、
第1閾値と、該第1閾値よりも大きい第2閾値とを記憶した記憶手段と、
前記画像を取得する取得手段と、
前記スペースに存在する人を、前記画像に基づいて検知する検知手段と、
検知された前記人毎に、該人が存在する確からしさを示す値を算出する算出手段と、
前記画像中の領域のうち、所定数以上の前記人が検知された混雑エリアを判定する判定手段と、
前記混雑エリア内で検知された前記人のうち、前記値が前記第1閾値よりも大きい人を検出する第1検出手段と、
前記画像中の領域のうち前記混雑エリアを除く非混雑エリア内で検知された前記人のうち、前記値が前記第2閾値よりも大きい人を検出する第2検出手段と、
を有し、
前記算出手段は、、前記スペースの画像中に複数の前記人の顔又は頭が検知された場合、前記スペースの画像中における物体の位置が予め登録された所定の物体と、前記人の顔又は頭の位置とが所定よりも近い場合、前記値を大きく補正すること、
を特徴とする物体検出装置。
An object detection device that detects a person existing in a predetermined space based on an image of the space.
A storage means that stores a first threshold value and a second threshold value larger than the first threshold value, and
An acquisition means for acquiring the image and
A detection means that detects a person existing in the space based on the image, and
For each of the detected persons, a calculation means for calculating a value indicating the certainty that the person exists, and
A determination means for determining a congested area in which a predetermined number or more of the people are detected in the area in the image, and
Among the persons detected in the congested area, a first detection means for detecting a person whose value is larger than the first threshold value, and
A second detection means for detecting a person whose value is larger than the second threshold value among the persons detected in the non-congested area other than the congested area in the area in the image.
Have,
When a plurality of faces or heads of the person are detected in the image of the space, the calculation means includes a predetermined object in which the position of the object in the image of the space is registered in advance, and the face or head of the person. If the position of the head is closer than the specified value, correct the above value significantly.
An object detection device characterized by.
前記所定の物体は、前記人に供される設備であること、
を特徴とする請求項6に記載の物体検出装置。
The predetermined object is equipment provided to the person.
The object detection device according to claim 6.
請求項1ないし7何れか一項に記載の物体検出装置を有する、混雑状況管理装置。

A congestion status management device having the object detection device according to any one of claims 1 to 7.

JP2019218477A 2019-04-10 2019-12-03 Object detection device and congestion status management device Active JP6746154B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019074524 2019-04-10
JP2019074524 2019-04-10

Publications (2)

Publication Number Publication Date
JP6746154B1 JP6746154B1 (en) 2020-08-26
JP2020173775A true JP2020173775A (en) 2020-10-22

Family

ID=72146166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218477A Active JP6746154B1 (en) 2019-04-10 2019-12-03 Object detection device and congestion status management device

Country Status (1)

Country Link
JP (1) JP6746154B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022079104A (en) * 2020-11-16 2022-05-26 株式会社バカン Device and method for managing facility situation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159957A (en) * 2011-01-31 2012-08-23 Secom Co Ltd Moving object tracking device
JP2014006586A (en) * 2012-06-21 2014-01-16 Canon Inc Information processor, and control method and computer program thereof
JP2014093023A (en) * 2012-11-06 2014-05-19 Canon Inc Object detection device, object detection method and program
JP2017097510A (en) * 2015-11-20 2017-06-01 ソニー株式会社 Image processing apparatus, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159957A (en) * 2011-01-31 2012-08-23 Secom Co Ltd Moving object tracking device
JP2014006586A (en) * 2012-06-21 2014-01-16 Canon Inc Information processor, and control method and computer program thereof
JP2014093023A (en) * 2012-11-06 2014-05-19 Canon Inc Object detection device, object detection method and program
JP2017097510A (en) * 2015-11-20 2017-06-01 ソニー株式会社 Image processing apparatus, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022079104A (en) * 2020-11-16 2022-05-26 株式会社バカン Device and method for managing facility situation
JP7253170B2 (en) 2020-11-16 2023-04-06 株式会社バカン Facility status management device and facility status management method

Also Published As

Publication number Publication date
JP6746154B1 (en) 2020-08-26

Similar Documents

Publication Publication Date Title
US10902441B2 (en) Techniques for automatic real-time calculation of user wait times
US11631253B2 (en) People counting and tracking systems and methods
US10824878B2 (en) Method and arrangement for receiving data about site traffic derived from imaging processing
US20180293442A1 (en) Apparatus, methods and computer products for video analytics
KR102174914B1 (en) Operating method analysis of commercial power big data system using floating population data
JP7069667B2 (en) Estimating program, estimation system, and estimation method
US20180061161A1 (en) Information processing apparatus, information processing method, and storage medium
US20020168084A1 (en) Method and apparatus for assisting visitors in navigating retail and exhibition-like events using image-based crowd analysis
US9846811B2 (en) System and method for video-based determination of queue configuration parameters
US20160155328A1 (en) Video based method and system for automated side-by-side drive thru load balancing
US20160110614A1 (en) Person detection system, method, and non-transitory computer readable medium
US10936859B2 (en) Techniques for automatically identifying secondary objects in a stereo-optical counting system
US20170278256A1 (en) System and Method for Tracking and Annotating Multiple Objects in a 3D Model
WO2019052536A1 (en) Passenger flow counting method, apparatus and device
JP6746154B1 (en) Object detection device and congestion status management device
KR20170007070A (en) Method for visitor access statistics analysis and apparatus for the same
WO2020032944A1 (en) System and method for detecting, tracking and counting human objects of interest with an improved height calculation
JP6733766B1 (en) Analysis device, control method, and program
KR102511626B1 (en) Apparatus and Method for Object Counting by Type Using Artificial Intelligence-Based Edge Computing
JP2021103445A (en) Guiding system, server, program, and service providing method
JP6866950B2 (en) Analyzer, control method, and program
US10360445B2 (en) System and method for tracking persons using a volumetric representation
JP2020129234A (en) Customer service state analyzer, customer service state analysis system, and customer service state analysis method
JP2023159972A (en) Stay state presentation device and stay state presentation method
NL2014154B1 (en) System and method for detecting the occupancy of a spatial volume.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200730

R150 Certificate of patent or registration of utility model

Ref document number: 6746154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250