JPWO2018084191A1 - Congestion situation analysis system - Google Patents
Congestion situation analysis system Download PDFInfo
- Publication number
- JPWO2018084191A1 JPWO2018084191A1 JP2018549046A JP2018549046A JPWO2018084191A1 JP WO2018084191 A1 JPWO2018084191 A1 JP WO2018084191A1 JP 2018549046 A JP2018549046 A JP 2018549046A JP 2018549046 A JP2018549046 A JP 2018549046A JP WO2018084191 A1 JPWO2018084191 A1 JP WO2018084191A1
- Authority
- JP
- Japan
- Prior art keywords
- congestion
- person
- weather
- analysis
- environmental
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 144
- 230000007613 environmental effect Effects 0.000 claims abstract description 60
- 238000003384 imaging method Methods 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000004364 calculation method Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 241000282412 Homo Species 0.000 claims abstract description 5
- 208000007101 Muscle Cramp Diseases 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000011410 subtraction method Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000003891 environmental analysis Methods 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W1/00—Meteorology
- G01W1/17—Catathermometers for measuring "cooling value" related either to weather conditions or to comfort of other human environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Environmental & Geological Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Environmental Sciences (AREA)
- Ecology (AREA)
- Atmospheric Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
撮像装置の映像情報から得られる物体の数や動きだけではなく、環境状態や人が 携行または使用する物体によって変動する窮屈さやストレス等の人間の感覚も考慮して混 雑状況を分析することが可能な混雑状況分析システムを提供する。 分析対象となる領域の画像を撮像する撮像装置と、撮像装置で撮像した画像 を処理し分析対象領域内の情報を収集する混雑解析装置とから構成される混雑状況分析シ ステムにおいて、混雑解析装置は、物体情報解析部を有し、物体情報解析部は、撮像装置 で撮像した画像に含まれる人物と物体の情報を抽出する人物・物体情報抽出手段と、人物 ・物体抽出手段で抽出した人物と物体の種別を判定する種別判定手段と、人物・物体抽出 手段で抽出した人物のパーソナルスペース、並びに種別判定手段で判定した物体の種別ごとの占有面積を用いて、人間の感じる窮屈さを含めた推定人数を算出する推定人数算出手 段と、推定人数算出手段で算出した推定人数を基に人間の感覚に近い混雑度の判定を行う 混雑度判定手段と、を備えることを特徴とする。It is possible to analyze the congestion situation considering not only the number and movement of objects obtained from the image information of the imaging device but also human senses such as crampedness and stress that vary depending on the environmental state and the objects carried or used by people. Provide a possible congestion situation analysis system. In a congestion analysis system comprising an imaging device that captures an image of a region to be analyzed, and a congestion analysis device that processes the image captured by the imaging device and collects information in the analysis target region, the congestion analysis device Includes an object information analysis unit, and the object information analysis unit extracts a person / object information extraction unit that extracts information about a person and an object included in an image captured by the imaging device, and a person extracted by the person / object extraction unit. The type judgment means for judging the type of the object, the personal space of the person extracted by the person / object extraction means, and the occupancy area for each type of the object judged by the type judgment means, including the tightness felt by humans An estimated number of persons calculation means for calculating the estimated number of persons, and a congestion degree determination means for determining a degree of congestion close to a human sense based on the estimated number of persons calculated by the estimated number of persons calculation means. It is a sign.
Description
本発明は、映像を用いた混雑状況分析システムに係り、特に、人間のストレス度合いを 考慮して混雑状況を分析することが可能な混雑状況分析システムに関する。 The present invention relates to a congestion situation analysis system using video, and more particularly to a congestion situation analysis system capable of analyzing a congestion situation in consideration of a human stress level.
混雑状況分析システムでは、例えば、テレビジョンカメラ(TVカメラ)等の撮像装置 を用いて分析対象領域内に進入する物体を撮像し、撮像した映像から領域内に存在する物 体の数や動きなどを分析して、領域内で混雑が発生しているか否かの判定を行っている。 また、混雑状況分析システムでは、ユーザによる有人監視ではなく、システムが自動的に 分析を行い、状況に応じて混雑状況をユーザに知らせる混雑状況分析システムが従来から 検討されている(例えば、特許文献1参照)。 In a congestion situation analysis system, for example, an object that enters an analysis target area is imaged using an imaging device such as a television camera (TV camera), and the number and movement of objects existing in the area from the captured image. To determine whether or not congestion occurs in the area. In addition, in a congestion situation analysis system, a congestion situation analysis system that automatically analyzes the system instead of manned monitoring by the user and informs the user of the congestion situation according to the situation has been conventionally studied (for example, patent documents). 1).
また、分析対象領域内に進入する物体を検出する技術として、例えば、背景差分法と呼 ばれる画像処理方法を用いた検出技術が従来から広く用いられている。そこで、背景差分 法の処理について、図8および図9を用いて説明する。図8は、背景差分法によって輝度 値が変化した領域を検出する手順の概略を説明するための図であり、また、図9は、背景 差分法を応用した監視方式の典型的な処理手順を示すフローチャートである。 In addition, as a technique for detecting an object that enters an analysis target region, for example, a detection technique using an image processing method called a background subtraction method has been widely used. Thus, the background difference method will be described with reference to FIGS. FIG. 8 is a diagram for explaining an outline of a procedure for detecting a region whose luminance value has changed by the background subtraction method, and FIG. 9 shows a typical processing procedure of a monitoring method applying the background subtraction method. It is a flowchart to show.
まず、図8を用いて、背景差分法によって撮像装置から逐次入力される入力画像の輝度 の変化領域を検出する手順を説明する。
図8において、401は撮像装置から逐次入力される入力画像、402は予め用意した 検出すべき対象物体が映っていない背景画像である。この2枚の入力画像401および背 景画像402を差分器405に入力すると、差分器405によって画素毎の輝度値の差分 が計算され差分画像403を得る。
次に、差分画像403を二値化器406に入力すると、二値化器406では、差分画像 403の各画素をしきい値Th(なお、Thは実験的に決定され、例えばTh=20)で しきい値処理し、しきい値Th未満の画素値を“0”、しきい値Th以上の画素の画素値 を“255”として二値化画像404を得る。これによって、入力画像401に映った人 型の物体407は、差分器405によって差分が生じた領域408(入力画像の輝度の変 化領域)として計算され、二値化器406によって画素値“255”の画像409として 検出される。First, the procedure for detecting the luminance change region of the input image sequentially input from the imaging device by the background subtraction method will be described with reference to FIG.
In FIG. 8, 401 is an input image that is sequentially input from the imaging apparatus, and 402 is a background image that is prepared in advance and does not show the target object to be detected. When the two
Next, when the
次に、図9を用いて背景差分法を応用した物体検出方式の典型的な処理手順について説明する。
図9において、初期化処理ステップS501では、背景差分法による物体検出方式を実 するための外部機器、変数、画像メモリ等の初期化を行なう。
画像入力ステップS502では、撮像装置から、例えば幅640画素、高さ480画素 の入力画像を得る。
差分処理ステップS503では、ステップS502で得た入力画像(図8の入力画像4 01参照)と予め準備しておいた基準となる背景画像(図8の背景画像402参照)の各 画素の輝度値の差分(差分画像403)を計算する。
二値化処理ステップS504では、ステップS503で得られた差分画像403の画素 値(差分値)が所定のしきい値Th(例えば、Th=20)未満の画素値を“0”、しきい値Th以上の画素の画素値を“255”(1画素の画素値を8ビットで計算。すなわち 、1画素が0から255までの値を持つ)として二値化画像(図8の二値化画像404参 照)を得る。Next, a typical processing procedure of the object detection method applying the background difference method will be described with reference to FIG.
In FIG. 9, in an initialization processing step S501, initialization of external devices, variables, image memory, etc. for realizing the object detection method based on the background difference method is performed.
In the image input step S502, an input image having a width of 640 pixels and a height of 480 pixels, for example, is obtained from the imaging device.
In the difference processing step S503, the luminance value of each pixel of the input image obtained in step S502 (see the
In the binarization processing step S504, the pixel value (difference value) of the
次に、ラベリング処理ステップS505では、ステップS504で得られた二値化画像 404の中の画素値“255”となる画素のかたまり(図8の画像409参照)を検出して各々に番号を付けて区別できるようにする。
物体存在判定ステップS506では、番号付けされた変化領域のそれぞれに対して、大 きさ、面積等に基づいて当該変化領域が検出条件に合致するかを判定し、検出条件に合致 する場合(YES)には、物体情報出力ステップS507で物体が存在するとして物体の 位置やサイズを必要に応じた方法で出力し、これらの出力情報から判断した物体の合計数 等を用いて混雑状況を決定する。
また、ステップS506で、検出条件に合致しない場合(NO)には、物体が存在しな いとして背景更新ステップS508へ分岐する。
そして、背景更新ステップS508では、ステップS502で得た入力画像を用いて背 景画像を更新する。背景画像の更新方法は、例えば、現在の背景画像に現在の入力画像を 一定の重み(更新率)をかけて加重平均し、新しい背景画像を逐次作成する方法がある。Next, in the labeling processing step S505, a block of pixels (see the
In the object presence determination step S506, for each of the numbered change areas, it is determined whether the change area matches the detection condition based on the size, area, and the like. If the change area matches the detection condition (YES) ), In the object information output step S507, the position and size of the object are output by a method as necessary, and the congestion status is determined using the total number of objects determined from the output information. .
If the detection condition is not met in step S506 (NO), the process branches to background update step S508 because no object exists.
In the background update step S508, the background image is updated using the input image obtained in step S502. As a background image update method, for example, there is a method in which a current background image is weighted and averaged by applying a certain weight (update rate) to a current background image, and new background images are sequentially generated.
このような混雑状況分析システムは、様々な用途に利用されており、例えば、駅構内や 空港、スタジアム、ショッピングモールといった不特定多数の人が訪れる施設において、 事件、事故等の防止の目的で利用されている。また、システムで使用される記録装置には 、長期間の画像データからの出力情報に基づいて記録される各種データが存在し、これら の蓄積されたデータをもとに事前に混雑予測する機能なども備えていることが多い。 Such a congestion situation analysis system is used for various purposes. For example, it is used for the purpose of preventing incidents and accidents in facilities visited by an unspecified large number of people such as train stations, airports, stadiums, and shopping malls. Has been. In addition, the recording devices used in the system have various data recorded based on output information from long-term image data, and a function for predicting congestion in advance based on these accumulated data It is often equipped with.
上述したように、従来の混雑状況分析システムでは、撮像装置からの映像情報を用いて 混雑の度合いを判断している。しかしながら、環境状態の違いによって人が感じる混雑の 度合いは変わるため、混雑状況分析システムで判断した混雑状態と大きくかけ離れてしま い、映像情報から非混雑状態と判断された場合であっても人が不快に感じる場合がある。 As described above, in the conventional congestion situation analysis system, the degree of congestion is determined using video information from the imaging device. However, because the degree of congestion that people perceive depends on the environmental conditions, it is far from the congestion status determined by the congestion status analysis system, and even if it is determined that the image information is not crowded, You may feel uncomfortable.
例えば、夏場の雨天日における駅構内では、殆どの人が傘を所持して移動するが、混雑 状況分析システムで混雑状況を分析する場合に、人に対して傘の体積は非常に小さいため 、通常時(例えば、春先の晴天時)との映像の相違は殆どないと判断され、通常時と同様 の混雑状況結果が出力される。
しかし、実際には、駅構内の床面が濡れているために転倒を心配して自然にゆっくりと した移動となり、また、気温や湿度が高く、濡れた傘を所持しているなど、通常時よりも 環境状態が悪化している。このため、通常時と比較して、人のストレス度合いが上昇し、 他人に近付かれると不快に感じる空間である「パーソナルスペース(personal-space)」 がより広がるため、周りに通常時よりも少数の人がいるだけで歩き難く混雑であると感じることになる。従って、この悪環境下において混雑状況分析システムで混雑状態と判断された場合に、ストレスを抱えた通行人にとっては既に大混雑であると認識されており、こ のような環境下では、例えば、濡れた傘が原因で暴力事件が発生する等の事件や事故の発生する可能性が通常時よりも高くなる。
このように、環境状態や付帯物の違いによって人間が感じる混雑度合いは大きく変わり 、想定外の事件や事故が発生する可能性がある。For example, on a rainy day in the summer, most people move with an umbrella, but when analyzing the congestion status with the congestion status analysis system, the volume of the umbrella is very small compared to the person. It is judged that there is almost no difference in the image from the normal time (for example, at the time of fine weather in early spring), and the same congestion result as the normal time is output.
However, in reality, the floor in the station is wet, so it moves slowly and naturally because of falling, and the temperature and humidity are high and you have a wet umbrella. The environmental condition is worse than. For this reason, compared to the normal time, the stress level of the person increases, and the “personal space” that is uncomfortable when approaching others is more widespread. It will be difficult to walk just because there are people, and it will be crowded. Therefore, when it is determined that the congestion state analysis system is congested in this adverse environment, it is already recognized as a heavy congestion for stressed passers-by. For example, in such an environment, for example, Incidence of incidents and accidents such as violent incidents caused by wet umbrellas is higher than usual.
In this way, the degree of congestion felt by humans varies greatly depending on environmental conditions and incidental items, and unexpected incidents and accidents may occur.
本発明は、このような状況に鑑みてなされたものであり、撮像装置の映像情報から得られる物体の数や動きだけではなく、環境状態や人が携行または使用する物体によって変動 する窮屈さやストレス等の人間の感覚も考慮して混雑状況を分析することが可能な混雑状 況分析システムを提供することを目的とする。 The present invention has been made in view of such circumstances, and not only the number and movement of objects obtained from image information of an imaging apparatus, but also the tightness and stress that vary depending on environmental conditions and objects carried or used by people. The purpose is to provide a congestion status analysis system that can analyze the congestion status in consideration of human senses.
上記目的を達成するために、本発明の混雑状況分析システムは、分析対象となる領域の 画像を撮像する撮像装置と、前記撮像装置で撮像した画像を処理し前記分析対象領域内の 情報を収集する混雑解析装置とから構成される混雑状況分析システムにおいて、前記混雑 解析装置は、物体情報解析部を有し、前記物体情報解析部は、前記撮像装置で撮像した画 像に含まれる人物と物体の情報を抽出する人物・物体情報抽出手段と、前記人物・物体抽 出手段で抽出した人物と物体の種別を判定する種別判定手段と、前記人物・物体抽出手段 で抽出した人物のパーソナルスペース、並びに前記種別判定手段で判定した物体の種別ごとの占有面積を用いて、人間の感じる窮屈さを含めた推定人数を算出する推定人数算出手 段と、前記推定人数算出手段で算出した前記推定人数を基に人間の感覚に近い混雑度の判 定を行う混雑度判定手段と、を備えることを特徴とする。 In order to achieve the above object, a congestion situation analysis system according to the present invention includes an imaging device that captures an image of a region to be analyzed, and processes the image captured by the imaging device to collect information in the analysis target region. In the congestion situation analysis system configured by the congestion analysis device, the congestion analysis device includes an object information analysis unit, and the object information analysis unit includes a person and an object included in an image captured by the imaging device. A person / object information extracting means for extracting the information, a type determining means for determining the type of the person and the object extracted by the person / object extracting means, a personal space of the person extracted by the person / object extracting means, And an estimated number calculating means for calculating an estimated number of persons including a cramp felt by a person using the occupied area for each type of object determined by the type determining means, and the estimated number calculating means And a congestion degree determination means for determining a congestion degree close to a human sense based on the estimated number of persons calculated in a stage.
また、上記目的を達成するために、本発明の混雑状況分析システムは、上記した混雑状 況分析システムにおいて、前記混雑解析装置は、環境パラメータ生成部を有し、前記環境 パラメータ生成部は、少なくとも1つの気象センサからの気象情報および天候情報を基に 環境パラメータを算出する環境パラメータ算出手段を備え、前記物体情報解析部は、前記 環境パラメータ算出手段で算出した前記環境パラメータを用い、前記推定人数算出手段で 算出した前記推定人数に対して、前記分析対象領域内の環境状態を反映した環境人数を算 出する環境人数算出手段を備え、前記混雑度判定手段は、前記環境人数算出手段で算出した前記環境人数を基に、前記分析対象領域内の環境状態による人間のストレス度合いを含めた混雑度の判定を行うことを特徴とする。 In order to achieve the above object, the congestion status analysis system of the present invention is the above-described congestion status analysis system, wherein the congestion analysis device includes an environment parameter generation unit, and the environment parameter generation unit includes at least Environmental parameter calculation means for calculating environmental parameters based on weather information and weather information from one weather sensor, and the object information analysis unit uses the environmental parameters calculated by the environmental parameter calculation means, and uses the estimated number of persons. An environmental number calculating means for calculating the number of environmental persons reflecting the environmental condition in the analysis target area is provided for the estimated number of persons calculated by the calculating means, and the congestion degree determining means is calculated by the environmental number calculating means. Determining the degree of congestion including the degree of human stress due to the environmental condition in the analysis target area based on the number of environmental persons It is characterized by.
また、上記目的を達成するために、本発明の混雑状況分析システムは、上記した混雑状 況分析システムにおいて、前記環境パラメータ算出手段は、環境テーブルおよび天候テー ブルを有し、前記環境テーブルから取得したストレスパラメータと前記天候テーブルから 取得した天候パラメータを用いて、前記分析対象領域内における人の不快度を示す前記環 境パラメータを算出することを特徴とする。 In order to achieve the above object, the congestion status analysis system of the present invention is the above-described congestion status analysis system, wherein the environmental parameter calculation means has an environment table and a weather table, and is acquired from the environment table. The environmental parameter indicating the discomfort level of the person in the analysis target area is calculated using the stress parameter obtained and the weather parameter acquired from the weather table.
本発明によれば、撮像装置の映像情報から得られる物体の数や動きだけではなく、環境 状態や人が携行または使用する物体によって変動する窮屈さやストレス等の人間の感覚も 考慮して混雑状況を分析することができる。 According to the present invention, not only the number and movement of objects obtained from the image information of the imaging device, but also the situation of congestion taking into account human senses such as crampedness and stress that vary depending on environmental conditions and objects carried or used by people. Can be analyzed.
以下、本発明の一実施形態に係る混雑状況分析システムについて説明する。
本発明の一実施形態に係る混雑状況分析システムは、分析対象となる領域の画像を撮像 する撮像装置と、撮像装置で撮像した画像を処理し分析対象領域内の情報を収集する混雑 解析装置とから構成される混雑状況分析システムにおいて、混雑解析装置は、物体情報解 析部を有し、物体情報解析部は、撮像装置で撮像した画像に含まれる人物と物体の情報を 抽出する人物・物体情報抽出手段と、人物・物体抽出手段で抽出した人物と物体の種別を 判定する種別判定手段と、人物・物体抽出手段で抽出した人物のパーソナルスペース、並びに種別判定手段で判定した物体の種別ごとの占有面積を用いて、人間の感じる窮屈さを 含めた推定人数を算出する推定人数算出手段と、推定人数算出手段で算出した推定人数を 基に人間の感覚に近い混雑度の判定を行う混雑度判定手段と、を備えることを特徴とし、 これによって、撮像装置の映像情報から得られる物体の数や動きだけではなく、環境状態 や人が携行または使用する物体によって変動する窮屈さやストレス等の人間の感覚も考慮 して混雑状況を分析することができるものである。Hereinafter, a congestion situation analysis system according to an embodiment of the present invention will be described.
A congestion situation analysis system according to an embodiment of the present invention includes an imaging device that captures an image of a region to be analyzed, a congestion analysis device that processes an image captured by the imaging device and collects information in the analysis target region, and In the congestion situation analysis system composed of: the congestion analysis device includes an object information analysis unit, and the object information analysis unit extracts a person / object information included in an image captured by the imaging device. Information extracting means, type determining means for determining the type of person and object extracted by the person / object extracting means, personal space of the person extracted by the person / object extracting means, and object type determined by the type determining means Based on the estimated number of people calculated by the estimated number of people calculated by the estimated number of people calculated by the estimated number of people including the cramped feeling felt by the person and the estimated number of people And a congestion degree determination means for determining the degree of the fluctuation, which varies depending not only on the number and movement of objects obtained from the image information of the imaging device, but also on the environmental state and the object carried or used by the person. The situation of congestion can be analyzed in consideration of human senses such as cramping and stress.
[混雑状況分析システムの構成]
本発明の一実施形態に係る混雑状況分析システムの構成について、図1〜図4を参照して説明する。図1は、本発明の一実施形態に係る混雑状況分析システムの構成の一例を示すブロック図である。図2は、本発明の一実施形態に係る混雑状況分析システムの物体情 報テーブルの一例を示す図である。図3は、本発明の一実施形態に係る混雑状況分析シス テムの環境テーブルの一例を示す図である。また、図4は、本発明の一実施形態に係る混 雑状況分析システムの天候テーブルの一例を示す図である。[Configuration of congestion analysis system]
A configuration of a congestion situation analysis system according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing an example of the configuration of a congestion situation analysis system according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of an object information table of the congestion situation analysis system according to the embodiment of the present invention. FIG. 3 is a diagram showing an example of an environment table of the congestion situation analysis system according to the embodiment of the present invention. FIG. 4 is a diagram illustrating an example of a weather table of the congestion situation analysis system according to the embodiment of the present invention.
本発明の混雑状況分析システムは、図1に示すように、撮像装置10と、物体情報解析 部30と環境パラメータ生成部40を有する混雑解析装置20と、記録装置50と、表示 装置60とから構成されている。また、撮像装置10は、混雑解析装置20の図示していない画像入力I/F(インターフェース)に接続され、表示装置60および記録装置50 は、混雑解析装置20の図示していない画像出力I/F(インターフェース)に接続され ている。また、気象センサ70や天候情報取得装置80は、混雑解析装置20のI/F( インターフェース)に接続されている。なお、撮像装置10は、ネットワークを介して混 雑解析装置20に接続するようにしてもよい。また、天候情報取得装置80はネットワー クを介して混雑解析装置20に接続するようにしてもよい。 なお、図1では、撮像装置10を1台の構成としているが複数存在してもよい。
As shown in FIG. 1, the congestion status analysis system of the present invention includes an
撮像装置10は、混雑解析装置20の図示していない画像入力I/Fに接続され、分析 対象となる領域の画像を撮像し、撮像した画像データを混雑解析装置20の画像入力部3 1に出力する。
混雑解析装置20の物体情報解析部30は、画像入力部31と、動き情報抽出部32と 、人物・物体解析部33と、混雑判定部34と、物体情報テーブル35とを備えている。
画像入力部31は、撮像装置10から撮像された画像データ、例えば、幅640画素、 高さ480画素の入力画像を取得する。
動き情報抽出部32は、画像入力部31から入力された入力画像から物体が存在するエ リアを抽出し、人物または物体が存在する範囲が示されている画像(以下、抽出画像)と その領域情報を作成する。The
The object
The
The motion
人物・物体解析部33は、動き情報抽出部32から入力された抽出画像等から、人物の 合計人数および物体のクラスを判定する。また、人物・物体解析部33は、入力画像や抽 出画像を用いて、抽出画像で存在する人物または物体から、例えば、「大きさ」、「速度 」、「進行方向(進入時および退去時)」、「輪郭形状」などの複数の特徴に基づいて、 例えば、「人物のみ」、「ベビーカー」、「補助犬同伴」、「大型荷物(スーツケースや 大きなスポーツバック)携行」、「車いす使用」、「白杖携行」、「子供連れ」などの複 数の種別に分類する。また、人物・物体解析部33は、人物の合計人数に対して、後述する人物・物体情報テーブル35を参照し、物体の種別を反映した人数(推定人数)の再算 出を実施する。
The person /
人物・物体情報テーブル35は、図2に示すように、種別35aと、種別人数35bと 、占有面積(幅×奥行)35cとから構成され、種別35a「人」の場合の占有面積35 c「120×120」を基準(種別人数35b「1.0」)として、他の種別の場合に増加する占有面積を追加人数として算出した種別人数を登録したものである。なお、基準と なる種別35a「人」の占有面積35cは、人間のパーソナルスペースを考慮して、手を 伸ばせば指先が人に届く対人距離が60cmと仮定し、人がストレスを感じること無く移動するスペースを、例えば、幅120cm×奥行120cmの矩形として設定されている 。
As shown in FIG. 2, the person / object information table 35 includes a type 35 a, a type number 35 b, and an occupied area (width × depth) 35 c, and an
混雑判定部34は、人物・物体解析部33で算出された推定人数および環境パラメータ 生成部40から取得した環境パラメータから、人のストレス度合いを考慮した人数(以下 、環境人数)を算出する。また、混雑判定部34は、環境人数を用いて混雑度合いを判定 し、判定結果(例えば、閑散状態、平常状態、混雑状態など)を出力する。
The
また、混雑解析装置20の環境パラメータ生成部40は、環境解析部41と、環境テー ブル42と、天候テーブル43とを備え、後述する環境パラメータを算出し、混雑判定部 34に出力する。
環境解析部41は、気象センサ70より取得した気象データを基に不快指数を算出し、 算出した不快指数および天候情報取得装置80から取得した天候情報を基に、後述する環 境テーブル42および天候テーブル43を参照してストレスパラメータと天候パラメータ を決定し、当該ストレスパラメータと天候パラメータから環境パラメータを算出して、当 該環境パラメータを混雑判定部34に出力する。The environment
The environment analysis unit 41 calculates the discomfort index based on the weather data acquired from the
環境テーブル42は、図3に示すように、不快指数42aと、ストレスパラメータ42 bと、一般的感覚42cとから構成され、不快指数42aの数値に応じたストレスパラメータ42bが設定登録されている。ストレスパラメータとは、不快指数に対して、人間の 感じるストレス度合いを示す値である。ストレスパラメータは、図3に示すように、不快 指数の上昇に比例して値が大きくなる。すなわち、この環境テーブル42によれば、例え ば、不快指数42aが76以上であれば一部の人が不快になるといわれていることからス トレスパラメータは1.3となり、不快指数42aが81以上であれば全員が不快になる と言われていることからストレスパラメータ42bは1.5となる。
As shown in FIG. 3, the environment table 42 includes a
天候テーブル43は、図4に示すように、天候43aと、天候パラメータ43bと、一 般的感覚43cとから構成され、天候43aに応じた天候パラメータ43bが設定登録さ れている。天候パラメータとは、天候状態に対して、人間の感じるストレス度合いを示す 値である。すなわち、この天候パラメータ43によれば、例えば、天候43aが晴天時の 天候パラメータ43bは1.0であるのに対して、雨天(降水量1mm未満)時の天候パ ラメータ43bは1.2、雨天(降水量1mm以上)時の天候パラメータ43bは1.5 となり、悪天候になるにつれて濡れた傘の所持や長靴・レインコートの着用、濡れた床や 階段での低速移動などの不快要素が多くなるため、パラメータ値は大きくなるように設定 されている。
As shown in FIG. 4, the weather table 43 includes a weather 43a, a weather parameter 43b, and a
気象センサ70は、環境解析部41からの指示により、分析対象領域の気象データをネットワークを介して環境解析部41に出力する。気象センサ70とは、例えば、温度セン サ、湿度センサ、また、屋外であれば、感雨センサ、風速センサ、風向センサ、気圧セン サなどである。なお、本実施例では、分析対象領域が屋内の場合を想定し、分析対象領域 付近に設置された屋内用の気象センサ70より取得する気象データを「温度センサ」およ び「湿度センサ」の2種から得られた情報とするが、分析対象領域が屋外の場合には、屋 外に最適なセンサを使用する。
天候情報取得装置80は、環境解析部41からの指示により、分析対象領域の天候情報 をネットワークを介して環境解析部41に出力する。天候情報取得装置80は、例えば、 日本気象協会のHP(ホームページ)に公開された分析対象地域の気象情報を定期的に取 得して記憶部に記憶する。The
In response to an instruction from the environment analysis unit 41, the weather
[混雑状況分析システムの動作]
次に、本発明の一実施形態に係る混雑状況分析システムにおいて、撮像された物体情報 と撮像環境を基に分析した混雑結果を表示するまでの手順とその内容について、図5のフ ローチャートを用いて説明する。図5は、本発明の一実施形態に係る混雑状況分析システ ムでの処理の一例を示すフローチャートである。
図5に示すように、画像入力ステップS201では、混雑解析装置20の物体情報解析 部30の画像入力部31は、撮像装置10から撮像された画像データ、例えば、幅640 画素、高さ480画素の入力画像を取得する。
物体抽出ステップS202では、物体情報解析部30の動き情報抽出部32は、ステッ プS201で取得した入力画像から物体が存在するエリアを抽出する。本ステップでの処 理は、従来技術の図9で説明したステップS502からステップS508の処理に該当し 、人物または物体が存在する範囲が示されている画像(以下、抽出画像)とその領域情報 を作成する。[Operation of congestion analysis system]
Next, in the congestion situation analysis system according to one embodiment of the present invention, the flow chart of FIG. 5 shows the procedure and contents until the congestion result analyzed based on the captured object information and the imaging environment is displayed. It explains using. FIG. 5 is a flowchart showing an example of processing in the congestion situation analysis system according to the embodiment of the present invention.
As shown in FIG. 5, in the image input step S <b> 201, the
In the object extraction step S202, the motion
種別分析ステップS203では、物体情報解析部30の人物・物体解析部33は、ステップS202で取得した抽出画像等から、人物の合計人数および物体のクラスを判定する 。人物・物体解析部33は、入力画像や抽出画像を用いて、抽出画像で存在する人物また は物体から、例えば、「大きさ」、「速度」、「進行方向(進入時および退去時)」、「 輪郭形状」などの複数の特徴に基づいて、例えば、「人物のみ」、「ベビーカー」、「補 助犬同伴」、「大型荷物(スーツケースや大きなスポーツバック)携行」、「車いす使用 」、「白杖携行」、「子供連れ」などの複数の種別に分類する。クラス分類の手段として は、SVM(Support Vector Machine)、ランダムフォレストやディープラーニング等 の機械学習を用いた公知の識別器や分析手法で実施可能であり、必要に応じて学習データ 等を事前に準備しておく。
In the type analysis step S203, the person /
推定人数算出ステップS204では、物体情報解析部30の人物・物体解析部33は、 人物の合計人数に対して、上述した人物・物体情報テーブル35を参照し、物体の種別を 反映した人数(推定人数)の再算出を実施する。例えば、物体情報テーブル35を参照すれば、基準となる種別35a「人」の占有面積35cは幅120cm×奥行120cmで あり、種別人数35bは1.0人である。また、種別35a「ベビーカー」の占有面積3 5cは(本体のみ)幅100cm×奥行100cmであることから、種別人数35bは、 「人」が「ベビーカー」を押している状態を想定して、1.8人と設定されている。
In the estimated number calculation step S204, the person /
そこで、推定人数算出ステップS204で行う推定人数算出処理の一例について、図6 を用いて説明する。図6は、本発明の一実施形態に係る混雑状況分析システムでの入力画 像、並びに当該入力画像中の人物および物体と物体種別による占有面積を説明するための 図である。
図6(a)は、画像入力ステップS201で取得された入力画像の例を示している。図 6(a)では、通行人901〜903を確認することができ、既存システムで実施される 画像認識処理では、分析対象領域に3人の人物が存在すると判断される。更に、種別分析 ステップS203で、通行人901は種別35a「人」、通行人902の携行物は種別3 5a「白杖(図中では黒杖で表示)」、通行人903の携行物は「大型荷物」と判定され る。
ここで、通行人903に着目すると、通行人903がスーツケースを持っているので種 別35a「大型荷物」と判定されるため、物体抽出ステップS202で得られた物体領域 内には荷物を持つ「人」と携行物である「大型荷物」の二種類が存在することになる。Therefore, an example of the estimated number calculation process performed in the estimated number calculation step S204 will be described with reference to FIG. FIG. 6 is a diagram for explaining an input image in the congestion state analysis system according to the embodiment of the present invention, and an occupied area by a person, an object, and an object type in the input image.
FIG. 6A shows an example of the input image acquired in the image input step S201. In FIG. 6A, passers-by 901 to 903 can be confirmed, and it is determined that there are three persons in the analysis target area in the image recognition process performed in the existing system. Further, in the type analysis step S203, the
Here, paying attention to the passer-
つまり、推定人数算出ステップS204では、物体の大きさは幅170cm(120c m+50cm)×奥行120cmとなり、本物体の占有面積1003は種別35a「人」 の占有面積1001と比較して広くなることが分かる。人物・物体情報テーブル35を用 いて、この占有面積1003を種別35a「人」を基準とした種別人数に換算すると1. 4人という結果になる。
従って、推定人数算出ステップS204では、図6(b)のすべての通行人901〜9 03に対して、種別に対応した占有面積1001〜1003を合算した結果、図6(a) の入力画像における推定人数は4.2人(1.0人+1.4人+1.8人)となる。この ように、本ステップでは、物体の種別によって移動時に占有する面積が大きく変わること を考慮した推定人数を算出することができる。That is, in the estimated number of people calculation step S204, the size of the object is 170 cm (120 cm + 50 cm) × 120 cm in depth, and the occupied
Accordingly, in the estimated number of persons calculation step S204, as a result of adding up the
なお、本実施例では、「人」を始めとした種別毎の大きさを一定として、占有面積から 推定人数を算出する処理を説明したが、抽出結果に基づき物体の個々の大きさに対してパーソナルスペースを付加した占有面積を用いて推定人数を算出することにより、更に正確 な推定人数を算出することが可能となる。
また、抽出画像から物体同士の密集度合が非常に高いと判断した場合は、個々の人物・ 物体の種別判断が非常に難しくなるため、種別分析ステップS203では、抽出画像から 推定できる人数のみ算出して、これを推定人数と決定し、推定人数算出ステップS204 はスキップしてもよい。In the present embodiment, the process for calculating the estimated number of persons from the occupied area with the size of each type including “person” fixed is described. However, based on the extraction result, the size of each object is calculated. By calculating the estimated number of people using the area occupied by adding personal space, it is possible to calculate a more accurate estimated number of people.
Also, if it is determined from the extracted image that the density of objects is very high, it is very difficult to determine the type of individual person / object. Therefore, in the type analysis step S203, only the number of people that can be estimated from the extracted image is calculated. Thus, this may be determined as the estimated number of people, and the estimated number of people calculation step S204 may be skipped.
次に、環境パラメータ更新判定ステップS205では、環境パラメータ生成部40の環 境解析部41は、物体情報解析部30の図示していない記憶部の環境パラメータ(本実施 例では、気象センサ70からの気象データに基づくストレスパラメータと天候情報取得装 置80からの天候情報に基づく天候パラメータによる補正係数)を更新するタイミングで あるかどうかを判定する。予め、判定条件を設定しておき、例えば、前回パラメータを更新してから設定時間(例えば1分)以上経過している場合、または、取得した天候情報が 前回取得した情報と異なっている場合、または、一定時間内で人数の急激な増加や減少が みられた場合等の判定条件を満たした場合(YES)は環境パラメータ取得ステップS2 06に、前記条件に当てはまらなかった場合(NO)は環境人数算出ステップS207に 進む。
Next, in the environmental parameter update determination step S205, the environmental analysis unit 41 of the environmental
環境パラメータ取得ステップS206では、環境解析部41は、混雑判定部34に対し て、撮像装置10による分析対象領域での撮像環境に応じた環境パラメータを出力する。
In the environment parameter acquisition step S206, the environment analysis unit 41 outputs an environment parameter corresponding to the imaging environment in the analysis target area by the
そこで、環境パラメータ生成部40で行われる処理について、図7を用いて説明する。 図7は、本発明の一実施形態に係る混雑状況分析システムの環境パラメータ生成部での処 理の一例を示すフローチャートである。
気象データ取得ステップS301では、環境パラメータ生成部40の環境解析部41は 、気象センサ70から気象データを取得する。Therefore, processing performed by the environment
In the weather data acquisition step S <b> 301, the environment analysis unit 41 of the environment
不快指数算出ステップS302では、環境解析部41は、ステップS301で取得した 分析対象領域の気象データを用いて、不快指数(DI:Discomfort Index)を算出する 。ここで、不快指数とは夏の蒸し暑さを数量的に表した指数であり、気温をTd[℃]、 湿度をH[%]とした時に以下の(数式1)で計算される。
不快指数(DI)=0.81Td+0.01H×(0.99Td−14.3)
+46.3 ・・・(数式1)In the discomfort index calculation step S302, the environment analysis unit 41 calculates a discomfort index (DI) using the weather data of the analysis target area acquired in step S301. Here, the discomfort index is an index that quantitatively represents the summer heat and heat, and is calculated by the following (Formula 1) when the temperature is Td [° C.] and the humidity is H [%].
Discomfort index (DI) = 0.81Td + 0.01H × (0.99Td-14.3)
+46.3 (Equation 1)
ストレスパラメータ設定ステップS303では、環境解析部41は、ステップS302 で算出した不快指数を基に、上述した図3の環境テーブル42を参照して、ストレスパラ メータを決定する。 In the stress parameter setting step S303, the environment analysis unit 41 determines a stress parameter with reference to the environment table 42 of FIG. 3 described above based on the discomfort index calculated in step S302.
天候情報収集ステップS304では、環境解析部41は、天候情報取得装置80から、 例えば、ネットワークを介して天候情報を取得する。当該天候情報は、撮像装置10が設置されている近辺(例えば、市町村)の現在の天気データ等を示す。
In the weather information collection step S304, the environment analysis unit 41 acquires weather information from the weather
天候パラメータ設定ステップS305では、環境解析部41は、ステップS304で取 得した天候情報を基に、上述した図4の天候テーブル43を参照して、天候パラメータを 決定する。 In the weather parameter setting step S305, the environment analysis unit 41 determines the weather parameter with reference to the weather table 43 in FIG. 4 described above based on the weather information acquired in step S304.
なお、図4の天候テーブル43では、天候パラメータ43bを天候に応じた一律のパラ メータとしているが、予め傘などのストレスになり得る携行品毎でもパラメータを準備し ておき、人の携行物など詳細が把握できる明確な画角である場合は、これらの物体を携行 する人物毎に天候パラメータを変更することで、更に各人のストレス度合いに合った算出 を行うようにしてもよい。ただし、例えば、携行物を「傘」とした場合、雨天や降雪時の 場合は傘が濡れていると想定し、その他の天候の場合は傘が乾いていると想定するため、 携行物のみでは無く天候との関連性も考慮したパラメータが必要である。 In the weather table 43 of FIG. 4, the weather parameter 43b is a uniform parameter according to the weather, but parameters are prepared in advance for each item that can be stressed, such as an umbrella, and so on. If the angle of view is clear enough to grasp the details, the weather parameters may be changed for each person carrying these objects, and the calculation may be performed according to the stress level of each person. However, for example, if the carrying item is an “umbrella”, it is assumed that the umbrella is wet when it is raining or snowing, and it is assumed that the umbrella is dry during other weather conditions. There is also a need for parameters that take into account the relevance to the weather.
また、上記した天候テーブル43は、屋内での混雑判定を想定した場合の天候パラメー タの値を記しているが、屋外の場合には、雨天時や降雪時には人は傘を差すため、通常時 よりも1人あたりの占有面積が広くなるが、傘を差すことにより自動的にパーソナルスペースが確保されるため、ストレスを軽減させること等を考慮した天候テーブル43を作成 する必要がある。
また、環境解析部41では、撮像装置10の設置位置と天候に相違がない場所に感雨セ ンサなどが設置可能であれば、天候情報収集ステップS304の代わりに感雨センサが出力する雨量情報を取得するようにしてもよい。In addition, the weather table 43 described above shows the values of the weather parameters when indoor congestion judgment is assumed, but in the case of the outdoors, people wear umbrellas during rainy weather or snowfall, so it is normal However, since a personal space is automatically secured by inserting an umbrella, it is necessary to create a weather table 43 in consideration of reducing stress and the like.
Further, in the environment analysis unit 41, if a rain sensor or the like can be installed in a place where there is no difference between the installation position of the
環境解析ステップS306では、環境解析部41は、ステップS303で設定されたス トレスパラメータとステップS305で設定された天候パラメータから環境パラメータを 算出する。算出方法を以下の(数式2)に示す。
環境パラメータ = ストレスパラメータ × 天候パラメータ ・・・(数式2)
なお、本実施例では、環境パラメータの算出に、ストレスパラメータと天候パラメータ の2つを用いているが、使用する気象センサや天候情報に応じて更に項目を増やすことが 可能であり、項目を増やすことでより最適な環境パラメータを算出できるようになる。特 に、画像からの抽出や判別が難しい、例えば、畳んだ傘などによるストレス度合いへの影 響は大きいが、比較的小さな携行物については、占有面積に基づく人数を計測する代わり に環境パラメータを有効に活用することで、より適正な混雑解析が可能となる。In environment analysis step S306, the environment analysis unit 41 calculates an environment parameter from the stress parameter set in step S303 and the weather parameter set in step S305. The calculation method is shown in (Formula 2) below.
Environmental parameter = Stress parameter × Weather parameter (Equation 2)
In this example, two parameters, stress parameter and weather parameter, are used to calculate the environmental parameters. However, the number of items can be increased according to the weather sensor used and weather information. This makes it possible to calculate more optimal environmental parameters. In particular, it is difficult to extract and discriminate from images.For example, folded umbrellas have a large impact on the degree of stress, but for relatively small items to be carried, environmental parameters can be used instead of measuring the number of people based on the occupied area. Effective utilization enables more appropriate congestion analysis.
環境パラメータ出力ステップS307では、環境解析部41は、ステップS306で算 出した環境パラメータを混雑判定部34に出力し、図5の環境人数算出ステップS207 に進む。
In the environmental parameter output step S307, the environmental analysis unit 41 outputs the environmental parameter calculated in step S306 to the
環境人数算出ステップS207では、混雑判定部34は、ステップS204で算出された推定人数およびステップS206で取得した環境パラメータから、人のストレス度合い を考慮した人数(以下、環境人数)を算出する。環境人数の算出方法を以下の(数式3) に示す。
環境人数 = 推定人数 × 環境パラメータ ・・・(数式3)
これにより、同じ推定人数でも環境が異なると環境人数は大きく変わる。例えば、推定 人数が15人の場合、曇天・不快指数70の環境下では環境人数はそのまま15人、しか し、雨天(降水量1mm未満)・不快指数80の環境下では環境人数は23人(15×1 .2×1.3)となり、8人増加する。In the environmental number calculation step S207, the
Number of people in the environment = Estimated number of people x Environment parameters (Equation 3)
As a result, even if the estimated number of people is the same, the number of people in the environment changes greatly if the environment is different. For example, if the estimated number of people is 15, the number of people in the environment with a cloudy / discomfort index of 70 remains as it is, but the number of people in the environment with a rainy weather (less than 1 mm of precipitation) and a discomfort index of 80 is 23 ( 15 x 1.2 x 1.3), an increase of 8 people.
なお、本実施では、推定人数と環境パラメータで環境人数を算出する説明を行ったが、 出勤時間帯は人数が多くても一定以上の速度で移動できればあまりストレス度合いが高く ならないなど、時間帯によって人流の平均速度も変化することより、時間帯に伴う移動速 度も反映した環境人数を算出してもよい。更に、同じ時間帯でも平日と休日で移動速度に 相違があるため、曜日による推定人数の変化も取り入れてもよい。
また、人が蛇行移動しないと直進方向に進めない環境であれば、ストレス度合いが高く なるなども考慮して、人の軌跡による直進度合いも反映した環境人数を算出してもよい。In this implementation, an explanation was given of calculating the number of people in the environment based on the estimated number of people and environmental parameters.However, even if there are a large number of people, the attendance time zone may vary depending on the time zone. Since the average speed of the people flow also changes, the number of people in the environment that reflects the speed of movement with time can also be calculated. Furthermore, since there is a difference in movement speed between weekdays and holidays even in the same time zone, changes in the estimated number of people according to the day of the week may be incorporated.
In addition, in an environment in which a person cannot move in a straight line direction unless he / she moves meandering, the number of people in the environment reflecting the degree of straight advance according to the person's trajectory may be calculated in consideration of the high degree of stress.
混雑度判定ステップS208では、混雑判定部34は、ステップS207で算出した環 境人数を用いて、混雑度合いを判定する。混雑判定部34は、混雑とする人数のしきい値 (以下、混雑しきい値という)を予め設定しておき、環境人数が混雑しきい値以上である 場合は“混雑状態である”と判断し、混雑しきい値未満の場合は“通常状態である”と判断する。または、混雑度合いを3段階で判定するようにして、3段階に設けた場合のしきい値、例えば、“閑散状態”のしきい値を5人以下、“平常状態”のしきい値を20人以 下として、環境人数に応じて、閑散状態、平常状態、混雑状態の3段階で判断を行うよう にしてもよい。または、画像内に存在する最大人数を予め設定しておき、最大人数を10 0%として混雑率を算出し、これを判定結果としてもよい。
In the congestion degree determination step S208, the
判定結果出力ステップS209では、混雑判定部34は、ステップS208で判定された混雑度合いに応じた判定結果を出力する。混雑判定部34は、例えば、表示装置60に 表示する撮像装置10の画像上に混雑度判定ステップS208の判定結果を描画したり、 混雑状態であると判定された場合はアラームを出力するなどしてユーザに知らせたりする 。また、必要に応じて記録装置50に撮像装置10から取得した入力映像や混雑判定結果 を保存する。
In determination result output step S209, the
情報更新ステップS210では、混雑判定部34は、ステップS208までに算出した 各種パラメータや環境人数、判定結果を予め設定した時間分保持しておく。これらの情報 は、例えば、設定した一定時間内で環境人数や混雑度判定ステップS208の判定結果が 急激に変化した場合など、混雑判定結果とは別に、これらの異常状態の情報も出力してユーザに知らせるようにする。また、情報更新ステップS210では、混雑判定部34は、 時間帯や曜日毎に算出された各種パラメータや環境人数を平均して更新・保持しておき、 上記より該当する時間帯や曜日の各平均値と混雑度判定ステップS208で取得した各値 に一定以上の相違があった場合は、その結果を出力してユーザに知らせるようにしてもよい。
In the information update step S210, the
また、混雑状態でも画像上で個々の人物を分離し易くするため、撮像装置10を天井に 設置するなどして俯瞰撮影してもよいし、撮像装置10をステレオカメラにすることにより、重複した物体同士を2台のカメラ画像の視差から距離画像を求めて、各物体の位置や 人数の総数を正確に取得するようにしてもよい。
また、本実施例では、人数を用いて混雑度判定を実施したが、各種別による占有面積と その合計面積を算出して、分析対象領域全体の面積に対する割合で混雑度を判定するよう にしてもよい。
また、取得した環境人数と使用された環境パラメータから、人のストレス度合いを軽減 するための気温や湿度を逆算して、エアコンによる適切な温度調整をする等の環境改善に も使用することができる。Also, in order to make it easy to separate individual persons on the image even in a crowded state, overhead imaging may be performed by installing the
In this embodiment, the congestion degree is determined by using the number of people. However, the occupation area by each type and the total area are calculated, and the congestion degree is determined by the ratio to the area of the entire analysis target area. Also good.
It can also be used to improve the environment, such as by adjusting the temperature and humidity appropriately to reduce the stress level of the person based on the acquired number of environmental people and the environmental parameters used. .
上述したように、本発明の一実施形態に係るデジタル混雑状況分析システムによれば、 撮像装置の映像情報から得られる物体の数や動きだけではなく、環境状態や人が携行また は使用する物体によって変動する窮屈さやストレス等の人間の感覚も考慮して混雑状況を 分析することができる。 As described above, according to the digital congestion situation analysis system according to an embodiment of the present invention, not only the number and movement of objects obtained from video information of the imaging apparatus, but also environmental conditions and objects carried or used by people. It is possible to analyze the congestion situation taking into consideration human senses such as cramping and stress that vary depending on the situation.
なお、上記した実施形態の構成及び動作は一実施例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。 Note that the configuration and operation of the above-described embodiment are merely examples, and it is needless to say that the configuration and operation can be appropriately changed and executed without departing from the spirit of the present invention.
本発明は、映像を用いた混雑状況分析システムに係り、特に、人間のストレス度合いを 考慮して混雑状況を分析する混雑状況分析システムに適用される。 The present invention relates to a congestion situation analysis system using video, and is particularly applied to a congestion situation analysis system that analyzes a congestion situation in consideration of a human stress level.
10:撮像装置、20:混雑解析装置、30:物体情報解析部、31:画像入力部、3 2:動き情報抽出部、33:人物・物体解析部、34:混雑判定部、35:人物・物体情 報テーブル、35a:種別、35b:種別人数、35c:占有面積(幅×奥行)、40: 環境パラメータ生成部、41:環境解析部、42:環境テーブル、42a:不快指数、4 2b:ストレスパラメータ、42c:一般的感覚、43:天候テーブル、43a:天候、 43b:天候パラメータ、43c:一般的感覚、50:記録装置、60:表示装置、70 :気象センサ、80:天候情報取得装置、401:入力画像、402:背景画像、403 :差分画像、404:二値化画像、405:差分器、406:二値化器、407:人型の 物体、408:輝度変化領域、409:画素値“255”の画像、901,902,90 3:通行人、1001,1002,1003:占有面積。 10: imaging device, 20: congestion analysis device, 30: object information analysis unit, 31: image input unit, 32: motion information extraction unit, 33: person / object analysis unit, 34: congestion determination unit, 35: person / Object information table, 35a: type, 35b: number of people, 35c: occupied area (width × depth), 40: environment parameter generation unit, 41: environment analysis unit, 42: environment table, 42a: discomfort index, 42b: Stress parameter, 42c: General sense, 43: Weather table, 43a: Weather, 43b: Weather parameter, 43c: General sense, 50: Recording device, 60: Display device, 70: Weather sensor, 80: Weather information acquisition device , 401: input image, 402: background image, 403: difference image, 404: binarized image, 405: differencer, 406: binarizer, 407: humanoid object, 408: luminance change area Area, 409: Image of pixel value “255”, 901, 902, 903: Passerby, 1001, 1002, 1003: Occupied area.
Claims (4)
前記混雑解析装置は、物体情報解析部を有し、
前記物体情報解析部は、
前記撮像装置で撮像した画像に含まれる人物と物体の情報を抽出する人物・物体情報抽 出手段と、
前記人物・物体抽出手段で抽出した人物と物体の種別を判定する種別判定手段と、
前記人物・物体抽出手段で抽出した人物のパーソナルスペース、並びに前記種別判定手 段で判定した物体の種別ごとの占有面積を用いて、人間の感じる窮屈さを含めた推定人数 を算出する推定人数算出手段と、
前記推定人数算出手段で算出した前記推定人数を基に人間の感覚に近い混雑度の判定を 行う混雑度判定手段と、
を備えることを特徴とする混雑状況分析システム。In a congestion situation analysis system comprising: an imaging device that captures an image of a region to be analyzed; and a congestion analysis device that processes the image captured by the imaging device and collects information in the analysis target region.
The congestion analysis device has an object information analysis unit,
The object information analysis unit
Person / object information extracting means for extracting information about a person and an object included in an image captured by the imaging device;
Type determination means for determining the type of person and object extracted by the person / object extraction means;
Estimated number calculation that calculates the estimated number of people including the cramps felt by humans using the personal space of the person extracted by the person / object extraction means and the occupied area for each type of object determined by the type determination means Means,
Congestion degree determination means for determining a congestion degree close to a human sense based on the estimated number of persons calculated by the estimated number of persons calculation means;
Congestion situation analysis system characterized by comprising.
前記混雑解析装置は、環境パラメータ生成部を有し、
前記環境パラメータ生成部は、少なくとも1つの気象センサからの気象情報および天候 情報を基に環境パラメータを算出する環境パラメータ算出手段を備え、
前記物体情報解析部は、前記環境パラメータ算出手段で算出した前記環境パラメータを 用い、前記推定人数算出手段で算出した前記推定人数に対して、前記分析対象領域内の環 境状態を反映した環境人数を算出する環境人数算出手段を備え、
前記混雑度判定手段は、前記環境人数算出手段で算出した前記環境人数を基に、前記分 析対象領域内の環境状態による人間のストレス度合いを含めた混雑度の判定を行うことを 特徴とする混雑状況分析システム。In the congestion situation analysis system according to claim 1,
The congestion analysis apparatus has an environment parameter generation unit,
The environmental parameter generation unit includes environmental parameter calculation means for calculating environmental parameters based on weather information and weather information from at least one weather sensor,
The object information analysis unit uses the environmental parameters calculated by the environmental parameter calculation means, and reflects the environmental number in the analysis target area with respect to the estimated number of persons calculated by the estimated number calculation means. Environmental number calculation means for calculating
The congestion degree determination means determines a congestion degree including a human stress level according to an environmental state in the analysis target area based on the environmental number of persons calculated by the environmental number of persons calculation means. Congestion situation analysis system.
前記環境パラメータ算出手段は、環境テーブルおよび天候テーブルを有し、前記環境テーブルから取得したストレスパラメータと前記天候テーブルから取得した天候パラメータ を用いて、前記分析対象領域内における人の不快度を示す前記環境パラメータを算出する ことを特徴とする混雑状況分析システム。In the congestion situation analysis system according to claim 1,
The environmental parameter calculation means has an environment table and a weather table, and uses the stress parameter acquired from the environment table and the weather parameter acquired from the weather table to indicate the discomfort level of the person in the analysis target area A congestion situation analysis system characterized by calculating environmental parameters.
前記環境パラメータ算出手段は、環境テーブルおよび天候テーブルを有し、前記環境テーブルから取得したストレスパラメータと前記天候テーブルから取得した天候パラメータ を用いて、前記分析対象領域内における人の不快度を示す前記環境パラメータを算出する ことを特徴とする混雑状況分析システム。In the congestion situation analysis system according to claim 2,
The environmental parameter calculation means has an environment table and a weather table, and uses the stress parameter acquired from the environment table and the weather parameter acquired from the weather table to indicate the discomfort level of the person in the analysis target area A congestion situation analysis system characterized by calculating environmental parameters.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217240 | 2016-11-07 | ||
JP2016217240 | 2016-11-07 | ||
PCT/JP2017/039589 WO2018084191A1 (en) | 2016-11-07 | 2017-11-01 | Congestion state analysis system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018084191A1 true JPWO2018084191A1 (en) | 2019-09-26 |
JP6908617B2 JP6908617B2 (en) | 2021-07-28 |
Family
ID=62075996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018549046A Active JP6908617B2 (en) | 2016-11-07 | 2017-11-01 | Congestion situation analysis system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6908617B2 (en) |
WO (1) | WO2018084191A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6833139B2 (en) * | 2018-12-13 | 2021-02-24 | 三菱電機株式会社 | Animation display device and animation display method |
CN111126147B (en) * | 2019-11-22 | 2023-10-24 | 天津极豪科技有限公司 | Image processing method, device and electronic system |
JP7349919B2 (en) * | 2020-01-21 | 2023-09-25 | 三菱電機株式会社 | Central monitoring system |
KR102162337B1 (en) * | 2020-03-01 | 2020-10-06 | 장영민 | Art auction system using data on visitors and art auction method using the same |
CN114067269A (en) * | 2021-11-18 | 2022-02-18 | 浙江宇视科技有限公司 | Personnel congestion evaluation method and device, computer equipment and storage medium |
WO2023171068A1 (en) * | 2022-03-07 | 2023-09-14 | 株式会社日立国際電気 | Surveillance system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (en) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2005316535A (en) * | 2004-04-27 | 2005-11-10 | Railway Technical Res Inst | Method of evaluating walkability in walker space and its device |
JP2005326966A (en) * | 2004-05-12 | 2005-11-24 | Mitsubishi Electric Corp | Person counting apparatus |
JP2006085366A (en) * | 2004-09-15 | 2006-03-30 | Oki Electric Ind Co Ltd | Speed distribution analyzing device |
WO2017141454A1 (en) * | 2016-05-13 | 2017-08-24 | 株式会社日立製作所 | Congestion analysis device, congestion analysis method, and congestion analysis program |
-
2017
- 2017-11-01 JP JP2018549046A patent/JP6908617B2/en active Active
- 2017-11-01 WO PCT/JP2017/039589 patent/WO2018084191A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (en) * | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2005316535A (en) * | 2004-04-27 | 2005-11-10 | Railway Technical Res Inst | Method of evaluating walkability in walker space and its device |
JP2005326966A (en) * | 2004-05-12 | 2005-11-24 | Mitsubishi Electric Corp | Person counting apparatus |
JP2006085366A (en) * | 2004-09-15 | 2006-03-30 | Oki Electric Ind Co Ltd | Speed distribution analyzing device |
WO2017141454A1 (en) * | 2016-05-13 | 2017-08-24 | 株式会社日立製作所 | Congestion analysis device, congestion analysis method, and congestion analysis program |
Also Published As
Publication number | Publication date |
---|---|
JP6908617B2 (en) | 2021-07-28 |
WO2018084191A1 (en) | 2018-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6908617B2 (en) | Congestion situation analysis system | |
JP5870996B2 (en) | Person tracking device, person tracking method, and person tracking program | |
KR101788269B1 (en) | Method and apparatus for sensing innormal situation | |
KR101350922B1 (en) | Method and apparatus for object tracking based on thermo-graphic camera | |
JP4623135B2 (en) | Image recognition device | |
KR101650924B1 (en) | System for intelligently analyzing video data and method thereof | |
KR101337060B1 (en) | Imaging processing device and imaging processing method | |
KR101339026B1 (en) | Method and apparatus for thermal camera visibility enhancing | |
EP2362351A1 (en) | Image processing apparatus, image processing method, and air conditioning control apparatus | |
WO2015117072A1 (en) | Systems and methods for detecting and tracking objects in a video stream | |
JP6436077B2 (en) | Image processing system, image processing method, and program | |
CN105469054B (en) | The model building method of normal behaviour and the detection method of abnormal behaviour | |
CN102982313A (en) | Smog detecting method | |
CN112380905B (en) | Abnormal behavior detection method based on histogram combination entropy of monitoring video | |
Raza et al. | Multiple Pedestrian Detection and Tracking in Night Vision Surveillance Systems | |
KR102491638B1 (en) | Apparatus and method for image processing | |
CN111723757B (en) | Method and system for monitoring refuse landfill | |
US20130229525A1 (en) | A device for monitoring surroundings of a vehicle | |
US20100296703A1 (en) | Method and device for detecting and classifying moving targets | |
CN105426928B (en) | A kind of pedestrian detection method based on Haar feature and EOH feature | |
CN103310180B (en) | The system and method for detection arbitrary object in the target image | |
KR20190078579A (en) | Information processing apparatus, information processing method, and recording medium | |
MY152782A (en) | A system and method to detect intrusion event | |
JP5679760B2 (en) | Intruder detection device | |
CN111063145A (en) | Intelligent processor for electronic fence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210624 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6908617 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |